Ricerca e innovazione

La dimensione etica della formazione sull'intelligenza artificiale nella scuola di base.

FOTO MARIO CATALANO

di Mario Catalano

Ricercatore, Docente, Editore Scientifico.

 

Abstract: L’intelligenza artificiale e la robotica, nell’ambito delle tecnologie emergenti, colpiscono notevolmente l’immaginario collettivo a motivo della loro risonanza mediatica e dell’interesse suscitato nel mondo della cinematografia. È sempre più diffuso il convincimento che ne possa derivare uno straordinario potere per l’uomo, ma anche il rischio di un conflitto epocale tra esseri umani e artificiali. Se tali scenari possono considerarsi frutto di suggestioni mediatiche e lacune formative, è pur vero che la nascente “era delle macchine” porta con sé preziose opportunità e grandi sfide di natura etico-giuridica. Pertanto, è ormai ineludibile che gli studenti, sin dagli anni della scuola di base, abbiano la possibilità di familiarizzare con la logica del machine learning, ma anche – e soprattutto! – di prender coscienza dei suoi rischi reali, alla luce di una visione chiara della differenza essenziale tra umano e téchne, nonché delle relazioni possibili tra le due realtà.

 

Questo articolo illustra un’innovativa proposta curricolare sulla dimensione etica delle tecnologie emergenti, con particolare riferimento all’intelligenza artificiale, che è stata ideata e sperimentata (Fig. 1) dalla ricercatrice Blakeley Payne (Payne,2019) in collaborazione con il gruppo Personal Robots del Massachusetts Institute of Technology Media Lab.

Fig 1

Fig. 1:. Gruppo di studenti che, nel 2019, hanno sperimentato il curriculum sulla dimensione etica dell’intelligenza artificiale ideato da Blakeley H. Payne con il supporto del MIT Media Lab Personal Robots Group (fonte: https://www.media.mit.edu/projects/ai-ethics-for-middle-school/overview/)

 

Il curricolo è stato concepito per gli studenti dai 9 ai 14 anni e mira al conseguimento di alcuni traguardi formativi coerenti con le profonde trasformazioni del nostro tempo:

  • essere consapevoli che le tecnologie digitali rappresentano un nuovo alfabeto… un mezzo per esprimere la propria creatività, le proprie idee… sé stessi, nonché uno strumento potente per contribuire al progresso umano, lavorando con e per gli altri.
  • Conoscere le caratteristiche fondamentali di un algoritmo e sapersene avvalere per affrontare problemi nuovi, scomponendoli in compiti elementari.
  • Saper sviluppare semplici ed efficaci modelli di machine learning.
  • Capire che i sistemi d’intelligenza artificiale, nel perseguire gli scopi prescelti dai loro creatori, possono influenzare in modo diverso i gruppi d’interesse in gioco (Awad et al., 2018).
  • Saper immaginare e progettare, in modo semplice, gli aspetti essenziali di nuove applicazioni d’intelligenza artificiale, che rispondano a precisi bisogni della collettività.

Nel corso della sperimentazione, gli studenti coinvolti sono stati guidati nelle comprensione dei tratti distintivi di un algoritmo, facendo riferimento alla vita di tutti i giorni. In particolare, attraverso la “riscoperta” del concetto di ricetta per la preparazione di uno snack, hanno imparato che un algoritmo è una sequenza ordinata d’istruzioni elementari non ambigue per trasformare uno o più input in qualcosa di utile (output). Interessante, poi, l’attività laboratoriale cui è approdata questa prima fase: ossia la stesura, da parte dei ragazzi, di un algoritmo per la preparazione del “miglior” panino al burro di arachidi e gelatina. Notevoli gli effetti sull’apprendimento: gli allievi hanno esplorato il significato dell’espressione “migliore” – migliore … per chi? Per colui che consumerà il sandwich? Per i suoi genitori? – e hanno verificato come un algoritmo possa cambiare a seconda del punto di vista che intende riflettere. Hanno, altresì, appreso ad avvalersi delle matrici etiche per individuare tutte le possibili relazioni tra stakeholder e loro interessi, in gioco nella creazione di un algoritmo: si tratta di rappresentazioni tabellari le cui celle si riferiscono a diverse combinazioni tra portatori d’interesse ed obiettivi (ad es. child-taste, parents-nutrition, parents-cost, etc.).

È stato, questo, un momento cruciale del percorso, in grado di veicolare il messaggio della non neutralità di una tecnologia, spesso destinata ad influire su molteplici soggetti con obiettivi, anche solo parzialmente, in conflitto. È stato, inoltre, il primo decisivo passo verso il riconoscimento che tutti abbiamo la possibilità e la responsabilità di plasmare il mondo per il bene comune attraverso idee, creatività e tecnologie… facendone, così, il luogo della piena espressione dell’umano.

In una fase successiva, gli studenti hanno iniziato a conoscere la realtà del machine learning attraverso una piattaforma per lo sviluppo di modelli di classificazione (AI-based) fruibile anche dai non esperti, Google Teachable Machine.(Fig. 2). Questa consente il caricamento on-line di campioni d’immagini, riferibili alle categorie che la macchina deve “imparare” a riconoscere, e “l’addestramento” automatico del relativo modello d’intelligenza artificiale. I coach della sperimentazione hanno fatto sì che i ragazzi “inciampassero” nel problema del bias algoritmico: infatti, hanno dato loro un campione d’immagini di cani e gatti che, essendo poco diversificato per la prima categoria, permetteva una classificazione accurata soltanto dei gatti. A loro il compito d’integrare le osservazioni, eliminare l’asimmetria e migliorare l’efficacia complessiva del modello, maturando, così, una prima comprensione della logica sottesa ad un algoritmo di machine learning.

Nella parte finale dell’esperienza, gli allievi hanno analizzato i sistemi d’intelligenza artificiale e la relativa dimensione etica di un’applicazione reale, YouTube. Si sono impegnati nell’identificazione dei target da prevedere e dei dati utili per l’addestramento dei modelli di previsione, relativamente a diverse funzioni della popolare piattaforma di video sharing: raccomandazione personalizzata dei contenuti multimediali, classificazione dei commenti, marketing calibrato sugli interessi dei fruitori, etc. Un approfondimento è stato dedicato all’algoritmo delle raccomandazioni, assegnando agli allievi il compito di progettarne un’evoluzione attraverso matrici etiche e semplici prototipi delle interfacce grafiche. Per coronare questa fase conclusiva, è stato animato un confronto tra i ragazzi su un articolo del Wall Street Journal in cui si rendeva pubblico un dibattito, interno a YouTube, circa la sicurezza digitale dei più piccoli utenti della piattaforma.

Fig 2 2

Fig. 2: Interfaccia grafica della piattaforma per lo sviluppo di modelli di machine learningGoogle Teachable Machine” (fonte: https://teachablemachine.withgoogle.com/v1/).

 

Fig 3

Fig. 3:. Un paio di studenti del progetto “MIT AI Ethics Education Curriculum” lavorano su matrici etiche e su una nuova versione di YouTube (fonte: https://www.media.mit.edu/projects/ai-ethics-for-middle-school/overview/)

 

BIBLIOGRAFIA:

  • Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., Bonnefon, J., and Rahwan, I (2018). “The Moral Machine experiment”, Nature 563, 7729, 59.
  • Benanti, P. (2018). Le Macchine sapienti - Intelligenze artificiali e decisioni umane. Casa Editrice Marietti.
  • Payne H., B. (2019). An ethics of artificial intelligence curriculum for middle school students (with support from the MIT Media Lab Personal Robots Group, directed by Cynthia Breazeal).
  • Chiriatti, M. (2021). Incoscienza artificiale – Come fanno le macchine a prevedere per noi. Luiss University Press.

Metodologia IBSE e interdisciplinarità: percorsi metodologici e didattici fondati sull’Inquiry scientifico (...) a cura di Peppino Sapia* e Debora Pantera**

Metodologia IBSE e interdisciplinarità: percorsi metodologici e didattici fondati sull’Inquiry scientifico con carattere di trasversalità con l’educazione civica

Abstract- Il modello dell’Inquiry Scientifico, fondato sulla creazione di domande investigabili dalle quali partire per avviare il processo di costruzione della conoscenza, potrebbe rappresentare per le scuole di ogni ordine e grado una svolta per l’apprendimento e l’esplorazione dei fenomeni scientifici. Si descriverà, attraverso una proposta di attività didattica, in che modo i processi investigativi possano portare ad una comprensione profonda della scienza nella scuola primaria e possano stabilire un continuum per l’implementazione di obiettivi relativi all’educazione civica.

* Docente di Didattica e Storia della Fisica- Unical -**Studentessa di Scienze della Formazione primaria- Unical

Sin dall’inizio del secolo scorso, numerosi orientamenti teorici e scientifici iniziarono a porre le basi per la nascita di una didattica basata sui principi dell’attivismo pedagogico. Tali orientamenti individuarono la necessità di un imminente passaggio dalla teoria del comportamentismo, secondo cui l’apprendimento è il risultato della mera trasposizione di contenuti e conoscenze dall’insegnante all’allievo, ad una teoria costruttivista, o socio-costruttivista come più recentemente viene definita. In quest’ultima dimensione, l’apprendimento è frutto di una costruzione sociale, strettamente legato al contesto di vita nel quale si è immersi. La rilevanza della teoria costruttivista è, tuttavia, da riscontrare nel ruolo fondamentale e centrale che affida ai soggetti in apprendimento. Quest’ultimo è un processo di co-costruzione tra tutti gli attori coinvolti i quali, attivamente, collaborano e dialogano per la creazione di conoscenze condivise e strettamente interconnesse al loro vissuto. Le figure centrali per lo sviluppo della corrente costruttivista sono senz’altro studiosi quali Dewey, Vygotskij e Bruner i quali già ad inizio ‘900 condannarono le consuete, e poco consone, pratiche didattiche incapaci di rispondere adeguatamente alla complessità del mondo sociale. In questa nuova ottica i bambini vengono, dunque, percepiti come “attivi”, protagonisti del loro percorso di crescita e da intendersi come la risultante di molteplici interrelazioni sociali. In questo contesto rivoluzionario cambia anche la concezione dell’insegnante che deve essere percepito solo come supporto, poiché non può sostituire l’attività mentale e costruttiva dello studente o prendere il suo posto. L’educatore assume il semplice ruolo di guida/mediatore nel processo di apprendimento degli studenti. Altro studioso che vale la pena ricordare è Reginald W. Revans, fisico inglese che portò avanti studi pioneristici sull’Action Learning nel 1982. A lui va il merito di aver introdotto in ambito scientifico il termine di “apprendimento attivo” (Active Learning), all’interno del quale rientrano le metodologie improntate sull’investigazione. L’apprendimento attivo è, nello specifico, una forma di attività didattica durante la quale l’insegnamento viene strutturato in modo da coinvolgere gli studenti nel processo di apprendimento in modo molto più profondo e diretto rispetto a quanto accade in altre forme di didattica. Secondo Bonwell nell’apprendimento attivo, gli studenti partecipano al processo di costruzione del sapere e, più in particolare, partecipano quando fanno qualcosa oltre ad ascoltare passivamente.

Sulla base di tali teorie e studi, i cui contributi vengono recepiti e fatti propri, muove i primi passi la storia dell’Inquiry Scientifico, sul quale si basano le più moderne e accreditate metodologie per l’apprendimento delle discipline scientifiche per ogni ordine e grado di scuola, tra le quali rientra la metodologia IBSE. Il termine “Inquiry” si può tradurre con investigazione, indagine, ricerca. Nello specifico, esso si riferisce ai diversi modi con cui gli scienziati studiano il mondo naturale e propongono spiegazioni che si basano sulle evidenze tratte dalle loro ricerche (Scientific Inquiry). “Inquiry” si riferisce anche alle attività con cui gli studenti sviluppano la conoscenza dei concetti scientifici e, al tempo stesso, comprendono come gli scienziati studiano la realtà naturale. Allo stesso modo degli scienziati, gli studenti sviluppano la loro comprensione del mondo naturale attraverso l’indagine, avendo in tal modo la possibilità di crearsi spiegazioni e teorie che li aiutano a spiegare ciò che osservano, riformulando le loro idee quando incontrano prove che siano discordanti dando, così, inizio ad una nuova fase investigativa. Gli approcci basati sull’indagine vengono attualmente considerati come un mezzo per reinventare l’educazione scientifica, per la loro capacità di rispondere adeguatamente alle esigenze di una società moderna. A tal proposito, è utile ricordare il contributo di Bybee il quale ha sottolineato l’importanza dell’alfabetizzazione scientifica, termine che ha iniziato ad apparire nella letteratura educativa a partire dagli anni ’50.

Bybee sostiene che se l’intento è quello di applicare la scienza per risolvere i problemi della società del 21° secolo, allora risulta necessaria la creazione di una società scientificamente alfabetizzata e, per raggiungere tale obiettivo, un approccio collegato all’apprendimento e all’insegnamento delle scienze è fondamentale. Ne consegue che materie come la biologia, la fisica e la chimica dovrebbero essere studiate in modo integrato, invece di studiare queste materie in modo indipendente attraverso una lente a singola scienza.

Lo sviluppo di un approccio basato sull’indagine è, dunque, visto come un mezzo per raggiungere l’alfabetizzazione e l’educazione scientifica. 

Risulta infatti ormai accreditata, da più pareri scientifici riscontrabili nella letteratura esistente, che gli approcci basati sull’indagine finalizzati alla promozione di un’educazione scientifica debbano possedere la caratteristica dell’interdisciplinarità al fine di sviluppare un ottimale livello di alfabetizzazione e per rispondere adeguatamente alla complessità del XXI secolo, come precedentemente accennato. L’approccio integrato di cui parla Bybee, è stato recentemente recepito anche dalla legislazione italiana la quale, a partire dalla legge n.92 del 2019, re-introduce l’insegnamento dell’educazione civica come disciplina obbligatoria, sia nella scuola del primo ciclo che nel secondo ciclo di istruzione. In particolar modo, nella scuola del primo ciclo la pregnanza di un insegnamento che spazi “tra” e “nelle” discipline viene recepito al punto che il perseguimento degli obiettivi ministeriali prefissati viene affidato a tutti gli insegnanti in contitolarità, ai quali spetta il compito di dedicare all’insegnamento dell’educazione civica non meno di 33 ore annuali obbligatorie.

Tra le più accreditate metodologie per l’apprendimento delle scienze, avente la capacità di promuovere un ottimale livello di educazione scientifica, ritroviamo la metodologia IBSE. L’acronimo IBSE sta per Inquiry Based Science Education e si potrebbe tradurre come “Insegnamento delle Scienze basato sull’Investigazione”. L’IBSE è un approccio all’insegnamento e all’apprendimento delle Scienze che scaturisce dall’analisi delle modalità di apprendimento degli studenti, dalla natura della ricerca scientifica e da un’attenta riflessione sui contenuti fondamentali da imparare. Vale la pena ricordare che l’IBSE è stato riconosciuto nel 1996 dal National Research Council (NRC) come migliore pratica nell’educazione scientifica. Adottando una metodologia di tipo IBSE, anche gli studenti possono avere l’opportunità di sperimentare il processo di investigazione scientifica e di sviluppare l’abilità di pensare e agire secondo le modalità previste da tale processo. È importante precisare che non esiste un solo modello di implementazione per la metodologia IBSE, ne esistono diversi le cui fasi e modalità applicative possono essere rivisitare, capovolte o saltate in relazione alle necessità degli alunni. Nello specifico verrà descritto nella Figura 1 il modello delle 5E di Bybee.

Le fasi dell’IBSE

 

1.Coinvolgimento Engage 

Gli studenti entrano in contatto con l’argomento

Si presenta una situazione reale e legata al vissuto dei ragazzi attraverso un documento, un’immagine, un video che catturi l’interesse, stimoli domande ed osservazioni facendo emergere le preconoscenze e le misconcezioni degli studenti. Le idee vengono esplicitate e messe per iscritto. Si individuano domande investigabili e significative dal punto di vista scientifico.

2.Esplorazione Explore

L’esperienza concreta precede la spiegazione.

Gli studenti per rispondere alle domande:

  • Raccolgono evidenze sperimentali;
  • Formulano ipotesi e previsioni;
  • Progettano e svolgono investigazioni, individuando strumenti e materiali;
  • Raccolgono e interpretano dati;
  • Comunicano le loro conclusioni. 

Gli studenti, proponendo le loro idee e ascoltando quelle degli altri, si rendono conto che possono esistere modi diversi di affrontare lo stesso problema.

3.Spiegazione Explain

Gli studenti confutano le proprie spiegazioni e conclusioni con il sapere scientifico e utilizzano il lessico corretto.

4.Elaborazione Elaborate

Si approfondisce e si rinforza la comprensione, applicando i concetti appresi a situazioni nuove o risolvendo problemi. 

5.Valutazione Evaluate

Gli studenti valutano la propria comprensione e le abilità acquisite. Questo momento viene condotto in modo tale che gli alunni continuino a sviluppare le loro conoscenze e a imparare da eventuali errori.

Figura 1: Il modello delle 5E di Bybee

La metodologia IBSE, come tutte le metodologie che si stanno affermando negli ultimi tempi  non esclude, nelle sue diverse fasi applicative, l’utilizzo delle tecnologie per la didattica in grado di avviare e facilitare il processo di investigazione. Nello specifico, verrà brevemente riportata un’attività didattica seguendo la metodologia descritta, ideata per bambini di scuola primaria che racchiude al suo interno anche le caratteristiche dell’interdisciplinarità, andandosi ad intrecciare strettamente con la disciplina “educazione civica”. L’attività ha la finalità di far maturare nei bambini un atteggiamento responsabile e consapevole nei confronti della risorsa “acqua”. Tale attività svilupperà uno degli obiettivi contenuti nell’Agenda ONU 2030, in particolare si concentrerà sull’obiettivo n.6 relativo ad “acqua pulita e servizi igienico-sanitari, assicurare a tutti la disponibilità e la gestione sostenibile di acqua e di strutture igienico-sanitarie”. L’attività seguirà le fasi della metodologia IBSE e avrà inizio con la fase dell’Engage.  Si cercherà di coinvolgere i bambini in attività di investigazione partendo dalla visione di un video YouTube, il cui link viene riportato nelle note.

Il video presenta un personaggio “Goccia Lina” che diventerà il personaggio-guida di questa attività. Dopo la visione del video, i bambini verranno divisi in gruppi alla ricerca di domande investigabili e, al contempo, alla ricerca di soluzioni da mettere in atto per ridurre al minimo lo spreco idrico. Attraverso un percorso di ricerca sul Web, i bambini in gruppo potranno apprendere le principali informazioni circa la risorsa acqua. Innanzitutto, scopriranno che l’acqua è talmente  importante che è stata stabilita una giornata internazionale, la quale ricorre ogni anno il 22 marzo. Continuando nella ricerca, i gruppi potranno cogliere ulteriori informazioni. L’acqua sul nostro pianeta apparentemente sembra tanta, ma non è una risorsa infinita. Infatti, se provassimo a dividere la terra in 100 quadratini tutti uguali, 71 di questi sono costituiti da acqua, la rimanente parte è costituita da terre emerse. Questo potrebbe portarci ad affermare che la terra sia un pianeta pieno d’acqua. A questa piacevole notizia, ne segue una spiacevole. Infatti, nonostante sulla Terra ci siano in tutto 1,4 miliardi di chilometri cubi di acqua, solo il 2,5% è acqua potabile, la rimanente parte è acqua salata. Secondo i dati riportati dall’ONU, ciascuno di noi avrebbe bisogno dai 20 ai 50 litri di acqua al giorno per soddisfare le proprie necessità. Tuttavia, le stime più recenti riportano che un adulto italiano ne consuma circa 250 litri e, dunque, molta di più di quella prevista. Questo porta ad un eccessivo squilibrio nell’accessibilità all’acqua potabile causando, come conseguenza, la totale mancanza di questa risorsa in alcune parti del mondo (si pensi ad esempio allo scarso approvvigionamento di acqua potabile in molte zone dell’Africa). Partendo da questa consapevolezza, sarebbe opportuno che ciascuno di noi adottasse delle semplici regole di risparmio idrico e di tutela di tale risorsa, in modo da ottenere un migliore impatto sull’ambiente e un minore consumo in bolletta. Verrà proposta ai bambini il calcolo della propria impronta idrica, un indicatore dell’appropriazione da parte dell’uomo di acqua dolce o potabile espresso in volumi di acqua consumati e/o inquinati. Essa misura la quantità di acqua utilizzata per produrre beni e servizi e può essere calcolata per un singolo processo o per un’intera regione geografica o per singolo consumatore. Tale calcolo è possibile eseguirlo direttamente sul Web nella pagina dedicata al link riportato nelle note.

I bambini potranno in tal modo scoprire quale sia il loro impatto sull’ambiente strettamente legato al consumo di acqua e, sulla base del calcolo che l’impronta restituisce, ricercare autonomamente attraverso gli strumenti digitali a loro disposizione, soluzioni per migliorare e/o modificare il proprio comportamento per essere più rispettosi nei confronti della risorsa “acqua”. I bambini saranno, dunque, attivamente coinvolti nella ricerca di pratiche utili per diminuire al minimo il loro impatto e, in gruppo, dovranno mettere a punto le principali buone regole da seguire quotidianamente, consapevoli che l’azione di ciascuno può fare la differenza e può portare ad una distribuzione più equa della risorsa considerata. I bambini saranno impegnati in questa ricerca di buone pratiche e dopo la discussione tenutasi in piccolo gruppo, le regole trascritte saranno condivise e discusse con l’intero gruppo classe. Si sceglieranno tra tutte 10 regole che saranno poi riportate su un cartellone in classe o, se il livello di sviluppo dei bambini lo permette, potrebbe essere creato del materiale multimediale, come ad esempio un Power Point, da condividere con i compagni delle altre classi con il fine di sensibilizzare quante più persone possibile per la tutela “dell’oro blu”.

L’elaborato digitale realizzato potrà fungere anche come materiale utile all’insegnante per la valutazione (vedi Figura 2/3).

 

Figura 2: Esempio di buone prassi elaborate dai bambini

  

Figura 3: Esempio di buone prassi elaborate dai bambini

 

Dalla cybersecurity al deepfakes di Giovanna Brutto*

Abstract - L’ azione congiunta dei Big data, del Cloud e I.A (apprendimento automatico) sta velocemente producendo un aumento esponenziale della superficie digitale con un incremento esponenziale di minacce cybernetiche: nuove vulnerabilità, nuovi schemi di attacco, nuovi attori di minaccia sono sempre più frequenti.

* Docente - Dott.ssa in Scienze Politiche

Spesso quando si parla di cybersecurity e Intelligenza artificiale si identificano come un’arma a doppio taglio perché se da una parte l’uno può essere l’alleato dell’altra rispondendo agli attacchi e rendendo più resiliente il perimetro informatico; dall'altra parte anche gli attori malevoli la possono utilizzare e creare i vari attacchi cibernetici. In questo articolo vediamo il loro rapporto come possono aiutarsi vicendevolmente la cybersecurity e l’intelligenza artificiale e quali sono i trend del momento, quali le opportunità quali i rischi.

intelligenza 1

Dualismo: cybersecurity e Intelligenza artificiale (IA)

Secondo il Security Summit di marzo del 2021 che presenta l’ultimo rapporto CLUSIT (Associazione Italiana per la Sicurezza Informatica) sottolinea come nel 2020 gli attacchi cyber nel mondo sono aumentati del 12% rispetto all’anno precedente con danni globali che valgono 2 volte il PIL italiano tra cui il 10% ha sfruttato il tema Covid-19.

Il 14% degli eventi è stato dovuto a spionaggio cyber: nel mirino anche lo sviluppo dei vaccini. L’utilizzo dei malware (42%), tra i quali spiccano i cosiddetti ransomware; di tecniche sconosciute” come i casi di data breach, (per il 20%), e poi la maggior parte degli attacchi è rappresentato da phishing & social engineering (15% del totale);

Secondo i vari report gli attacchi informatici sono aumentati per l’emergere di due condizioni: da una parte l'esplosione del consumer web ha direzionato le aziende ad offrire i propri prodotti e servizi basati sull'intelligenza artificiale, dall'altra parte vi è la complessità degli attacchi che si stanno facendo sempre più importanti e mirati.

 Il mercato dei prodotti di cybersecurity ha visto negli ultimi anni soluzioni di I.A.  che includono il machine learning (apprendimento automatico), sia per analizzare nuovi malware (software malevoli) sia per trovare nuovi tipi di attacco alle reti.

Ma cosa può fare l'intelligenza artificiale per la cybersecurity? Innanzitutto l’ I.A. ha diverse applicazioni nella cybersecurity, che si differenziano a seconda delle tecnologie utilizzate (ad esempio la machine learning, natural language processing cioè il processo di trattamento automatico mediante un calcolatore elettronico delle informazioni scritte o parlate in una lingua).

I campi di azione di essa sono fondamentalmente due: sono quelli di pattern recognition e anomaly detection. (ossia di riconoscimento di un modello e rilevamento di anomalie).

La pattern recognition consiste nell'analisi e identificazione di sotto-aree dell'apprendimento automatico all'interno di dati grezzi al fine di identificarne la classificazione, cercare di conoscere alcuni schemi; quali quelli di attacco o di difesa: ad esempio in una azienda l’I.A. cerca di riconoscere e indicizzare i vari attacchi informatici.

L’anomaly detection, ossia il rilevamento di anomalie è l'identificazione di oggetti, eventi o osservazioni rari che sollevano sospetti differendo in modo significativo dalla maggior parte dei dati.

 In particolare, la tecnologia di riferimento è quella del machine learning, che aiuta nell'individuazione di modelli (pattern) di attacco - come nei firewall (componente hardware e/o software di difesa perimetrale di una rete) e negli intrusion detection system (un dispositivo software o hardware utilizzato per identificare accessi non autorizzati ai computer o alle reti locali) - o nel riconoscere il malware quando gli altri metodi si sono rivelati inefficaci o inconclusivi - generare alert  (un servizio di rilevamento) e attivare contromisure automatiche.

Rispetto ai ransomware per esempio una I.A. può consentire rispetto ai contenuti sospetti la classificazione e di conseguenza o potranno essere cestinati o resi inaccessibile all'utente ordinario.

In che modo le aziende dovrebbero utilizzare l’intelligenza artificiale e migliorare le loro performance?

Rispetto agli attacchi informatici passati ci sono dinamiche diverse. Nel frattempo, le reti sono diventate sempre più complesse. Con un numero di connessioni interne ed esterne in continua crescita, è diventato sempre più difficile tenere traccia di tutte le attività della rete e impostare parametri e firme che siano in grado di fornire solo il livello base di protezione. I perimetri delle reti sono sostanzialmente diventati ridondanti, mentre le minacce informatiche evolvono in modi imprevedibili.

 Non possiamo più fare affidamento ad una cybersecurity su un perimetro informatico fisico perché non esiste più quello definito dallo spazio aziendale dell'ufficio. Il concetto di rete aziendale in piena pandemia è cambiato: molti dipendenti delle aziende lavorano in smart working e il perimetro informatico comincia a diventare molto difficile da stabilire, non si è più dentro lo stesso ufficio, ma si è dislocati qua e là e decade il principio della sicurezza in profondità per mancanza di perimetro.

La Sicurezza Informatica sta diventando sempre più decentralizzata: non vi è più un data center (un'unità organizzativa), ma quelli che sono gli asset digitali (qualsiasi contenuto archiviato digitalmente) sono la maggior parte residenti in  cloud. Dobbiamo, quindi, ripensare al concetto dell’infrastruttura digitale, su quali applicazione risiede: stiamo parlando di uno spazio digitale che possiamo portare alla vista di una intelligenza artificiale affinché essa possa apprendere al normale funzionamento del business e non di attacchi, non di una mera classificazione binaria, ma di qualcosa che va oltre e cerchi di andare oltre le sfumature; occorre capire il contesto.

L’ analista di cybersecurity dovrebbe essere in grado di operare su enormi quantità di dati con accuratezza e velocità e imparando da tutti i falsi positivi e falsi negativi che via via incontra in modo da poter raffinare l’accuratezza delle future analisi, ma gli esseri umani non possono essere così accurati e veloci ed ecco l’intervento dell’I.A.

 Il cybercrime è passato in pochi anni da pochi target di alto profilo, a molti target di basso profilo distribuiti e diffusi e l’I.A. può proteggere i sistemi, identificare e prevenire gli attacchi sfruttando il potere dell'analisi di grandi quantità di dati.

In che modo i pirati informatici sfrutteranno l'intelligenza artificiale?

Ci sono stati i pacchetti di software rilasciati nelle reti con lo scopo di spiare e dare le informazioni a chi sta dietro per poter mascherare l'attività da parte dell'attaccante come se fossero delle attività legittime di un qualche funzionario, un utente di un’azienda.

Ci sono state tante email nelle campagne direzionate sul covid relative ai test e ai vaccini ed erano campagne in realtà del tutto fasulle anche con l'introduzione del nome dell'azienda; queste sono campagne di automazione piuttosto che di intelligenza artificiale vera e propria.

Altro esempio è il deepfake una tecnica utilizzata dall’I.A. per combinare e sovrapporre immagini e video esistenti con video o immagini originali, tramite una tecnica di apprendimento automatico.

I deepfake sono foto, video e audio creati grazie a software di intelligenza artificiale (AI) che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce.

La parola deepfake è un neologismo nato dalla fusione dei termini “fake” (falso) e “deep learning”, una particolare tecnologia AI. Le tecniche usate dai deepfake sono simili a quelle delle varie app con cui ci si può divertire a modificare la morfologia del volto, a invecchiarlo, a fargli cambiare sesso, ecc. (…)

La materia di partenza sono sempre i veri volti, i veri corpi e le vere voci delle persone, trasformati però in “falsi” digitali è una forma particolarmente grave di furto di identità. Le persone che compaiono in un deepfake a loro insaputa non solo subiscono una perdita di controllo sulla loro immagine, ma sono private anche del controllo sulle loro idee e sui loro pensieri, che possono essere travisati in base ai discorsi e ai comportamenti falsi che esprimono nei video. Le persone presenti nei deepfake potrebbero inoltre essere rappresentate in luoghi o contesti o con persone che non hanno mai frequentato o che non frequenterebbero mai, oppure in situazioni che potrebbero apparire compromettenti. In sostanza, quindi, un deepfake può ricostruire contesti e situazioni mai effettivamente avvenuti e, se ciò non è voluto dai diretti interessati, può rappresentare una grave minaccia per la riservatezza e la dignità delle persone. (Vademecum Garante per la protezione dei dati).

Questo porta a forme specifiche di azioni psicologicamente e socialmente molto dannose, ad esempio il “revenge porn”, cioè la condivisione online - a scopo di ricatto, denigrazione o vendetta, da parte di ex partner, amanti o spasimanti respinti, etc., oppure altre forme di illeciti quali  il sexting, pornografia illegale e pedopornografia.

Tutto questo è possibile perché i software open source sono molto accessibili; per crearli è semplice e  i software o app deepfake in circolazione sono abbastanza accurati e particolarmente prestanti.

Conclusioni

Diversi sono i limiti dell’I.A. nella cybersecurity: il primo riguarda la comprensibilità delle segnalazioni (explainability) cioè la presenza di un evento sospetto e non quale attacco è avvenuto, il secondo riguarda l’accuratezza delle segnalazioni cioè che ci siano falsi positivi o falsi negativi. Inoltre è necessario molto tempo nella conoscenza degli algoritmi; i suoi automatismi potrebbero generare disservizi in orari e giorni critici; ci vuole un addestramento continuo per rilevare nuove forme di attacchi informatici e quindi dei costi non indifferenti per l’azienda di manutenzione. Controlli di sicurezza in cloud, adozione di tecnologie IA/ML, nuova modalità di gestire il processo di produzione dei servizi digitali e nuovo modo di gestire gli allarmi sono le sfide da affrontare per chi si occupa di cybersecurity. Altre criticità sono rappresentate dal fatto che l’ I.A è dappertutto per i suoi vantaggi nell’automazione pertanto occorre scegliere gli ingredienti giusti per trarre i benefici e arrivare agli utenti con qualcosa che è umano e non lo è ...per aumentare l’efficacia crea verso gli utenti un impatto che deve essere gestito.

 

Bibliografia

CLUSIT  - Intelligenza artificiale e sicurezza: opportunità, rischi e opportunità – marzo 2021

Rapporto CLUSIT 2021

Deepfake -Vademecum Garante per la protezione dei dati

Webinar: ICT Security Magazine -Cyber-security-virtual-conference-2021/27-maggio-2021 - Nuove prospettive tra Intelligenza Artificiale e Cyber Security-

Relatori: Prof. Francesco Santini, Professore Associato Università di Perugia Dipartimento di Matematica ed Informatica, Mariana Pereira, Director of Email Security, Darktrace, Mirco Destro Group CIO Beltrame Group, Carolina Polito, Research Assistant presso il Centre for  Europeen Policy Studies (CEPS).

Sitografia

https://it.wikipedia.org/

https://www.garanteprivacy.it/

www.onoratoinformatica.it

www.intelligenzaartificiale.it

https://clusit.it/

https://www.zerounoweb.it/

 

SVILUPPO DEL PENSIERO COMPUTAZIONALE NELLA SCUOLA PRIMARIA: RICERCA DELL’UNIVERSITÀ DI CHICAGO

Mario Catalano - Ricercatore, Docente, Editore Scientifico. 

Abstract: Integrare lo sviluppo del pensiero computazionale nel curricolo della scuola primaria con un approccio interdisciplinare: le evidenze scientifiche di una recente ricerca dell’università di Chicago. Questo articolo descrive i risultati di un recente studio condotto da un gruppo di ricerca dell’Università di Chicago e pubblicato sulla rivista scientifica “International Journal of STEM Education” nel mese di maggio del 2020. Lo studio affronta il tema controverso dell’integrazione, nel curricolo della scuola primaria, di esperienze sistematiche di apprendimento volte a favorire lo sviluppo del pensiero computazionale. Attraverso l’applicazione di metodi d’analisi quantitativa, i ricercatori dell’Università di Chicago dimostrano che inserire nelle attività didattiche tradizionali lo studio della Computer Science, con un approccio interdisciplinare ed orientato al problem-solving, non compromette il conseguimento degli obiettivi di apprendimento negli ambiti fondamentali della formazione linguistica e matematico-scientifica, bensì ci sono buone ragioni per credere in un impatto positivo al di là dei confini dell’insegnamento della Tecnologia.

E-HEALTH: VERSO UNA SANITÀ DIGITALE, SEMPRE PIÙ “CONNESSA” E SMART di Cristiana Rizzuto*

Abstract - Il processo di Digital Transformation che ha interessato il settore sanitario, può essere descritto attraverso la nota espressione “E-Health”, un termine piuttosto recente, utilizzato per indicare l'applicazione all'area medica e a quella dell'assistenza sanitaria dell'Information & Communication Technology (ICT). L’ E-Health assume sempre più importanza grazie alle sue iniziative che migliorano l’accesso alle cure da parte del cittadino e che contribuiscono ad aumentare l’efficienza e la sostenibilità del settore sanitario.

* Ingegnere biomedico di presidio presso Ospedale Maggiore di Bologna 

sanitàdigitale

La situazione di emergenza sanitaria, causata dal Covid-19, ha chiesto rapide risposte per far fronte ai nuovi bisogni che si sono manifestati in ambito sanitario,  enfatizzando la necessità di un’innovazione radicale nel settore Healthcare, che ha portato a un’accelerazione del processo di Digitalizzazione della Salute e delle Cure, con un notevole incremento dei servizi di telemedicina e di monitoraggio a distanza delle patologie.

In tale contesto, si è affermato sempre di più il concetto di una Sanità digitale, “connessa” e smart, in grado di garantire una maggiore facilità di accesso alle cure da parte del cittadino, con un aumento dell’efficienza e della sostenibilità del settore sanitario.  Il processo di  Digital Transformation, che ha interessato il settore sanitario, può essere descritto attraverso la nota espressione “E-Health”, un  termine piuttosto recente, utilizzato per indicare l'applicazione all'area medica e a quella dell'assistenza sanitaria dell'Information & Communication Technology (ICT).  Si tratta di un concetto multidimensionale, definito dal Ministero della Salute come:  “L’utilizzo di strumenti basati sulle tecnologie dell’informazione e della comunicazione per sostenere e promuovere la prevenzione, la diagnosi, il trattamento e il monitoraggio delle malattie e la gestione della salute e dello stile di vita”. 

Attualmente, le principali iniziative dell’ E-Health a livello nazionale ed europeo sono soprattutto volte a migliorare il percorso assistenziale del cittadino nell’erogazione dei servizi sanitari, con soluzioni innovative che consentono sin dal primo momento di interazione del paziente con la rete di assistenza sanitaria di tracciarne l’intero percorso di cura. Oggi l'avvio del percorso di cura avviene tramite il medico di base, il quale è supportato dal Fascicolo Sanitario Elettronico e dalla E-Prescription. Il paziente  può accedere ai servizi territoriali e ospedalieri attraverso il Centro Unificato di Prenotazione (CUP), nonché il sistema centralizzato informatizzato di prenotazione delle prestazioni sanitarie, incaricato di gestire l'intera offerta dei servizi sanitari (SSN, regime convenzionato, intra moenia) presenti sul territorio di riferimento. Il medico di base viene, inoltre, coinvolto nella gestione della fase post-acuta, durante la quale, oltre al Fascicolo Sanitario Elettronico, entra in gioco la telemedicina.

A livello tecnologico,  gli investimenti più significativi nell’ambito dello sviluppo di software medicali in Italia riguardano la Cartella Clinica Elettronica, il Fascicolo Sanitario Elettronico  e tutte le soluzioni per il download dei referti via web e le prenotazioni via internet. L’ambito della telemedicina è ancora in fase di  espansione. Molto diffuso nelle strutture sanitarie è il teleconsulto medico, specie ai fini della gestione e del monitoraggio di pazienti con patologie croniche, mentre soluzioni più avanzate, come  ad esempio la teleriabilitazione, sono attualmente in fase di sperimentazione. Entriamo nel dettaglio di ciascuna iniziativa E-Health citata.

Cartella Clinica Elettronica e Fascicolo Sanitario Elettronico

Il concetto di Cartella Clinica Elettronica è assimilabile a quello di cartella clinica di ricovero ospedaliero o cartella clinica ambulatoriale specialistica, mentre il Fascicolo Sanitario Elettronico (FSE) è costituito dall'insieme di tutte le cartelle cliniche, indagini diagnostiche preventive e tutte le informazioni relative alla salute presente e passata del paziente. Il Fascicolo Sanitario Elettronico (FSE) quindi è lo strumento attraverso il quale il cittadino può tracciare e consultare la propria storia clinica, condividendola con i professionisti sanitari per garantire un servizio più efficace.

E-Prescription

La prescrizione elettronica o ricetta digitale,  è una prescrizione medica generata, trasmessa e compilata elettronicamente al computer, che sostituisce le prescrizioni cartacee e via fax. Essa presuppone il collegamento in rete delle strutture di erogazione dei servizi sanitari: medici di medicina generale, pediatri, aziende sanitarie locali, aziende ospedaliere e farmacie pubbliche e private.

Telemedicina

Per Telemedicina si intende una modalità di erogazione di servizi di assistenza sanitaria, tramite il ricorso a alle Information and Communication Technologies (ICT), in situazioni in cui il professionista della salute e il paziente non si trovano nella stessa località. La Telemedicina comporta la trasmissione sicura di informazioni e dati di carattere medico per la prevenzione, la diagnosi, il trattamento e il successivo controllo dei pazienti. La prestazione in Telemedicina non sostituisce la prestazione sanitaria tradizionale, ma la integra per migliorarne efficacia, efficienza e appropriatezza, con il vantaggio di ridurre  i costi sanitari, offrire una maggiore disponibilità e ridurre il rischio di diffusione delle malattie infettive. 

La Telemedicina assume grande importanza nella prevenzione secondaria e nella gestione delle patologie croniche, cioè in tutti i casi di pazienti già affetti da patologie (ad esempio diabete o patologie cardiovascolari), che pur conducendo una vita normale devono sottoporsi a costante monitoraggio di alcuni parametri vitali al fine di ridurre il rischio di insorgenza di complicazioni. A tal proposito bisogna sottolineare che fanno parte della telemedicina anche  tutte le applicazioni per smartphone di tipo clinico-medico, che permettono all'utilizzatore di gestire la propria salute attraverso il proprio cellulare. Attualmente lo sviluppo di applicazioni mediche si è concentrato principalmente sulla gestione dell'ipertensione arteriosa e delle condizioni diabetiche, con la possibilità di monitorare il proprio stato di salute, compilando un vero e proprio diario pressorio o alimentare, contenente i dati glicemici.

Il ruolo del 5G

La rete 5G giocherà un ruolo fondamentale nel processo Digitalizzazione della Sanità, con grandi vantaggi in termini di servizi ai cittadini. Quello che può sostanzialmente offrire una rete 5G sono tre vantaggi fondamentali:  velocità superiori, con almeno 20 Gbps in down-link e 10 Gbps in up-link per ogni base di ricarica mobile, una latenza vicina allo zero e una maggiore capacità di supportare dispositivi (si parla di circa un milione di dispositivi connessi  ogni 10 metri quadri). È evidente che questi elementi possano consentire un potenziamento del digitale in sanità, che si tratti di operazioni chirurgiche a distanza o telemedicina o monitoraggio da remoto di pazienti cronici, con vantaggi evidenti per la qualità delle cure e per la sostenibilità economica delle strutture sanitarie. Difatti,  il 5G potenzierà lo sviluppo dell’IoT, consentendo un ulteriore salto in avanti nella cura del paziente, semplificando le diagnosi a distanza o rendendo possibile la remote surgery.

Dall’inizio della pandemia sono già trenta le strutture sanitarie con le quali è stato siglato un accordo per la copertura con micro-antenne DAS (Distributed Antenna System), al cento per cento compatibili con la rete 5G. Le strutture sanitarie coinvolte hanno un bacino di utenza di 9 milioni di persone per oltre 16mila posti letto. Il lavori sono stati già completati in 20 ospedali, mentre nei rimanenti 10 sono in corso, con una distribuzione geografica che ne vede il 50% al Nord e l’altro 50% equamente distribuito tra Centro e Sud del Paese.

L’INTELLIGENZA ARTIFICIALE E IL POTERE COGNITIVO DELLE METAFORE: SPUNTI DI RIFLESSIONE PER UNA DIDATTICA INNOVATIVA

di Mario Catalano

Ricercatore, Docente, Editore Scientifico.

 

Abstract: Gli algoritmi d’intelligenza artificiale si rivelano sempre più delle tecnologie efficaci nell’amplificare i poteri cognitivi dell’uomo; tuttavia, il modo in cui oggi “addestriamo” le macchine a divenire accurate nei compiti di previsione e di classificazione è ritenuto dagli esperti ancora “primitivo”, se si pensa alla complessità del pensiero umano. La ricerca nel campo dell’intelligenza artificiale ha iniziato ad indagare alcune delle dimensioni più affascinanti di quella umana, ossia la metacognizione, la capacità d’imparare ad imparare, il saper astrarre da un dominio specifico di conoscenza delle strategie per risolvere una certa classe di problemi e, al bisogno, applicarle – mutatis mutandis – in un contesto nuovo e differente. Tutto ciò rappresenta l’occasione per esplorare il mistero dell’apprendimento ed offre anche spunti di riflessione utili per dare un significato didattico preciso ad una delle aspirazioni fondamentali della scuola di oggi: “insegnare ad imparare”.

Ho deciso di scrivere questa breve memoria allo scopo di condividere le riflessioni emerse in un recente confronto con il Prof. Paolo Massimo Buscema, scienziato di fama internazionale nel campo dell’intelligenza artificiale, Presidente e Direttore del Centro di Ricerca Semeion di Roma e Full Professor Adjoint presso il Dipartimento di Matematica e Statistica dell’Università del Colorado. L’ho intervistato in occasione di uno degli episodi della miniserie “Etica e AI” incardinata nel palinsesto di “Intelligenza Artificiale Spiegata Semplice”, una delle principali Web community, in Italia, per la formazione e la divulgazione sui temi legati al mondo dell’intelligenza artificiale (questo è il link alla videoregistrazione dell’incontro: https://youtu.be/P1OVU6-ZdmQ).

 

Fig. 1: “ETICA e AI”: conduce Mario Catalano, ospite Prof. Paolo Massimo Buscema.

 

Gli argomenti toccati sono molteplici: dall’algoretica al rapporto tra scienza e fede, dalle innovative applicazioni dell’intelligenza artificiale in medicina agli studi avanzati sull’apprendimento delle macchine. In particolare, vorrei parlare proprio di quest’ultimi, considerate le potenziali implicazioni per il mondo della formazione e della scuola.

Gli algoritmi d’intelligenza artificiale si rivelano sempre più delle tecnologie efficaci nell’amplificare i poteri cognitivi dell’uomo: la sua capacità di analizzare dati ed estrarne regolarità, modelli per interpretare un certo fenomeno (capire, ad esempio, quali siano i suoi fattori principali), la capacità di far previsioni e prendere conseguenti decisioni proficue ed efficienti.

Eppure, il modo in cui oggi “addestriamo” le macchine a divenire accurate nei compiti di previsione e di classificazione è ritenuto dagli esperti ancora “primitivo”, se si pensa alla complessità del pensiero umano. La logica del machine learning, infatti, consiste nel fornire alla macchina moltissimi dati (ad esempio, tante immagini – le più diverse possibili! – di un gatto cui si associa l’etichetta “GATTO” e tante immagini di un cane cui si assegna la categoria “CANE”) e lasciare che un algoritmo determini la rappresentazione matematica del fenomeno studiato minimizzando l’errore di previsione relativo agli esempi selezionati.

Inoltre, i modelli d’intelligenza artificiale in grado di realizzare il cosiddetto “apprendimento profondo” delle macchine (deep learning) operano sui dati-esempio attraverso livelli successivi di astrazione, in modo da catturare, ad ogni livello, i tratti fondamentali di un certo fenomeno e di cogliere, di livello in livello, schemi di crescente complessità. Ad esempio, nel caso di una rete neuronale profonda per il riconoscimento di un’immagine (Nielsen, 2015), un sistema di neuroni artificiali interconnessi ed organizzati in molteplici strati successivi potrebbe, nel primo strato, riconoscere i bordi, nel secondo, individuare forme geometriche semplici create dai bordi (triangoli, rettangoli, etc.) e così via.

Fig. 2: Schema di una rete neuronale artificiale con diversi strati di neuroni interconnessi.

 

Addestrare reti artificiali con molti strati di neuroni totalmente interconnessi (ciascun neurone connesso con tutti gli altri dello strato successivo) presenta dei problemi; pertanto, nella pratica applicativa, si ricorre a delle soluzioni alternative che, tuttavia, s’ispirano alla medesima logica di un apprendimento che avvenga attraverso vari livelli concatenati di astrazione.

Nonostante tutti questi metodi stiano dimostrando grande utilità in molti settori – quali la Medicina, l’Economia, il Marketing, etc. – rivelano un grande limite, ossia l’incapacità di prevedere gli eventi estremi: quelle rare manifestazioni di un fenomeno che si allontanano significativamente dal suo andamento medio. Inoltre, lasciano fuori dal mondo dell’intelligenza artificiale alcune delle dimensioni più affascinanti di quella umana, ossia la metacognizione, la capacità d’imparare ad imparare, il saper astrarre da un dominio specifico di conoscenza delle strategie per risolvere una certa classe di problemi e, al bisogno, applicarle – mutatis mutandis – in un contesto nuovo e differente.

Il Prof. Buscema si riferisce a tutto ciò parlando della possibilità di cogliere legami invisibili tra mondi diversi, di costruire “ponti impossibili” tra realtà apparentemente molto lontane (Buscema, 2020). La sua “Teoria dei Mondi Impossibili” (Buscema et al., 2018) mira proprio a sviluppare metodi d’intelligenza artificiale più accurati in un dominio specifico – segnatamente nel prevedere gli eventi rari (i cosiddetti “cigni neri”) – attingendo ad ambiti conoscitivi simili, che possano consentire un notevole ampliamento della fenomenologia, sulla base della “similarità della forma di forme diverse” (Buscema, 2020). Così, ad esempio, impiegando pool di reti neuronali artificiali (differenti sia per la loro architettura sia per la natura dei dati utilizzati nella fase di addestramento) potrebbe essere possibile migliorare le previsioni nel campo della Geofisica, creando sinergie tra set di dati relativi agli eventi sismici, alle eruzioni vulcaniche, agli eventi meteorologici, etc.

Questi studi innovativi sono certamente l’occasione per esplorare il mistero meraviglioso dell’apprendimento ed offrono anche spunti di riflessione utili per dare un significato didattico preciso ad una delle aspirazioni fondamentali della scuola di oggi: “insegnare ad imparare”.

Infatti, saper trasformare conoscenze ed abilità maturate in un certo ambito in competenze spendibili in contesti nuovi può essere la via per il successo formativo, a scuola e nella vita. Si pensi al caso di un allievo della Scuola Primaria che incontri delle difficoltà nell’imparare ad affrontare i problemi di Matematica. Nella mia personale esperienza di docente di Tecnologia, che si dedica alla formazione del pensiero computazionale, ho notato come lo sviluppo di videogiochi con linguaggi di programmazione visuale rappresenti, per i ragazzi, un contesto particolarmente motivante in cui poter apprendere con facilità ed efficacia strategie generali per risolvere un problema, potenzialmente spendibili in molti campi del sapere. Mi riferisco, in particolare, alla capacità di articolare un problema dato in compiti elementari oppure trasformarlo e risolverlo in una versione più semplice, da ricondurre a quella originaria attraverso processi di astrazione (Brennan and Resnick, 2012).

Più in dettaglio, gli allievi possono scoprire, con il supporto del docente, che programmare l’interazione del protagonista di un gioco di avventura con i suoi nemici segue una logica modulare, che prevede la stesura e l’esecuzione in parallelo di più script: il codice per conferire al protagonista le sue abilità di movimento, quello per determinare l’epilogo del gioco quando il protagonista soccombe nello scontro con i suoi nemici e, infine, lo script relativo all’esito opposto. Quando, poi, gli studenti si trovano di fronte ad un problema diverso, ad esempio nell’ambito dello studio della Matematica, le strategie cognitive acquisite nelle attività di game design, in virtù di una forte motivazione intrinseca e di un approccio costruttivo all’errore, possono rivelarsi fruttuose anche nel nuovo contesto.

 

BIBLIOGRAFIA:

Brennan, K. and Resnick, M. (2012). Using artifact-based interviews to study the development of computational thinking in interactive media design. Paper presented at annual American Educational Research Association meeting, Vancouver, BC, Canada.

Buscema, P. M., Sacco, P., Della Torre, F., Massini, G., Breda, M., and Ferilli, G. (2018). “Theory of impossible worlds: Toward a physics of information”. Chaos 28.

Buscema, P. M. (2020). L'arte della previsione Intervista sull’intelligenza artificiale a cura di Vittorio Capecchi. Mimesis Edizioni.

Nielsen, M. A. (2015). Neural Networks and Deep Learning. Determination Press.

Agricoltura 4.0: Scenari, opportunità e ruolo del legislatore

Abstract: Negli ultimi anni l’agricoltura sta vivendo un periodo di forti cambiamenti: sostenibilità e qualità sono i due paradigmi entro cui questi cambiamenti si muovono. L’evoluzione tecnologica sta apportando gli input necessari per guidare questi paradigmi. Questo ecosistema produttivo agricolo digitale tuttavia necessità di norme. L’articolo si pone l’obiettivo di contestualizzare la situazione attuale del settore e offre spunti di riflessione su possibili aspetti normativi.

L’agricoltura rappresenta la prima forma produttiva dell’uomo da molto tempo. Si esplica nell'attività umana che consiste nella coltivazione di specie vegetali al fine di ottenere prodotti a scopo alimentare. Si tratta di un settore che ha notevolmente contribuito allo sviluppo della civiltà umana. Un processo andato di pari passo con le prime forme di società stabili, con una propria organizzazione. Tre fattori hanno contribuito in maniera primaria allo sviluppo di questo settore: 

Onde Gravitazionali

(di Claudio Meringolo)

La teoria della Gravitazione, sviluppata nel 1915 da Albert Einstein, ha aperto scenari cosmologici altrimenti impensabili con la meccanica classica newtoniana, e tra questi c’è la presenza di un campo di onde che pervade l’Universo intero. Le onde gravitazionali sono delle piccole increspature del tessuto spazio-temporale, talmente piccole da essere impercettibili, generate da oggetti massivi che ruotano uno attorno all’altro a velocità molto elevate, e che si propagano a velocità della luce, circa 300 mila km/s.

I sistemi binari di buchi neri (ossia due buchi neri che ruotano intorno ad un comune centro di massa) sono fra le sorgenti più energetiche di onde gravitazionali, anche se le enormi distanze che ci separano da essi fanno sì che sia alquanto difficile rilevarne il segnale, che ovviamente decresce con la distanza. Tali perturbazioni dello spazio-tempo sono state ipotizzate teoricamente da Einstein nel 1916 come conseguenza della sua Teoria della Gravitazione, e confermate sperimentalmente nel Febbraio 2016 tramite la rilevazione di onde gravitazionali provenienti dalla fusione di due buchi neri di massa pari a circa 30 ?*, dover con ?* viene indicata la massa del Sole, ossia circa 2*10^{30} kg. L’esistenza di tali onde fornisce la conferma sperimentale del fatto che l’interazione gravitazionale non è un’azione istantanea a distanza tra corpi massivi come asseriva la teoria newtoniana, ma implica l’esistenza di un campo gravitazionale che si propaga anche nel vuoto e con la velocità della luce.

A rilevare per primi le onde è stato un lavoro in parallelo tra i due strumenti gemelli Laser Interferometer Gravitational-wave Observatory (LIGO) negli Stati Uniti, a Livingstone, in Louisiana, e ad Hanford, nello stato di Washington. Lo scopo di questi strumenti era quello di trovare le increspature che si formano nel tessuto spaziotemporale dell’Universo quando, ad esempio, due masse ruotano vorticosamente l’una attorno all’altra (Fig.1), come avviene in un sistema binario molto massiccio, e i due corpi man mano perdono energia meccanica tramite l’emissione di onde gravitazionali, e si avvicinano al loro centro di massa comune fino a fondersi in un unico corpo.

Fig. 1: Raffigurazione pittorica di un merging di due buchi neri, con relativa emissione di onde gravitazionali.

Le onde gravitazionali rilevate con LIGO sono state prodotte dal processo di fusione di due buchi neri di origine stellare, con massa rispettivamente di 29 e 36 ?*, in un unico buco nero ruotante più massiccio di circa 62 ?*. Nell’ultima parte del processo, hanno spiraleggiato per poi fondersi ad una velocità di circa 150.000 km/s, la metà della velocità della luce. Le tre masse solari mancanti al totale della somma equivalgono all’energia emessa durante il processo di fusione dei due buchi neri sotto forma di onde gravitazionali. C’è da dire che l’evento osservato si trova ad una distanza tale che per arrivare sulla Terra, il segnale ha impiegato quasi 1 miliardo e mezzo di anni (tanto impiega la luce a coprire la distanza che ci separa dalla sorgente), e quindi è avvenuto quando sulla terra facevano la loro comparsa le prime cellule evolute in grado di utilizzare l’ossigeno.

Le onde gravitazionali, abbinate alle onde elettromagnetiche, ci forniscono così una mappatura più completa dell’Universo, dandoci la possibilità di scrutarne dettagli sempre più sottili per carpirne i suoi meccanismi e, fino ad ora, più misteriosi.

 

Claudio Meringolo

Studente PhD in Astrofisica e Relatività Generale, Università della Calabria

 

 

 

Rivelazione delle Onde Gravitazionali

(di Claudio Meringolo)

Abstract: Le onde gravitazionali, predette da Einstein circa un secolo fa, sono delle increspature dello spazio-tempo generate da eventi astrofisici estremi, come ad esempio la fusione di due buchi neri o l'esplosione di una supernova, e si propagano alla velocità della luce nel vuoto. Sono estremamente importanti perché ci permettono di vedere quello che è invisibile con la luce e ci danno informazioni su zone dell'universo ancora poco conosciute e molto distanti da noi. E’ per questo che carpirne l'essenza in tutti i suoi dettagli è diventata una delle sfide più interessanti per molti scienziati.

 

Nel 1915 Albert Einstein sviluppa quella che verrà chiamata la Teoria della Relatività Generale, ossia la teoria che descrive in maniera completa come lo spazio e il tempo sono legati fra loro a formare il tessuto spazio-temporale quadri-dimensionale. Questa formulazione matematica rivoluziona la concezione di gravità, che non è più una forza fra oggetti distanti, ma piuttosto un effetto geometrico in grado di deformare lo spazio e il tempo.

Queste deformazioni, dovute ad oggetti massivi, si propagano nel vuoto alla velocità della luce (da qui il nome "onda gravitazionale") ed Einstein ne aveva predetto l'esistenza già nel 1916. Solo che lo stesso scienziato tedesco non credeva si potessero mai osservare sperimentalmente, questo perché le onde gravitazionali sono delle perturbazioni del tessuto spazio-temporale incredibilmente deboli, e i principali eventi astrofisici che ne sono la sorgente sono molto lontani da noi. Il risultato netto è che per poter rivelare le onde gravitazionali che arrivano sulla Terra c'è bisogno di rivelatori estremamente sensibili: per dare un'idea, è come riuscire a misurare una variazione della dimensione di un protone su un oggetto grande quanto la distanza Terra-Sole.

 

Fig. 1: Schema semplificato di un interferometro di Michelson. Un laser emette un fascio di luce coerente, il quale viene separato in due fasci da un beam splitter. I due fasci vengono riflessi alle estremità dei bracci da degli specchi. Infine, i due fasci si ricombinano sullo schermo.

L'11 febbraio 2016, ad un secolo esatto dalla loro predizione teorica, è stata annunciata la prima verifica sperimentale dell'esistenza delle onde gravitazionali, per quello che è stato un evento molto importante nell'ambito dell'astrofisica e della cosmologia mondiale.

Le onde gravitazionali rivelate in questo evento sono state prodotte dal processo di fusione di due buchi neri di origine stellare lontani circa 1 miliardo e mezzo di anni luce dalla Terra. La loro massa era rispettivamente di 29 e 36 volte la massa del Sole, e nel processo di fusione hanno formato un unico buco nero ruotante più massiccio di circa 62 masse solari. Nell'ultima parte del processo, i due corpi hanno spiraleggiato per poi fondersi ad una velocità di circa 150.000 km/s, la metà della velocità della luce. Le tre masse solari mancanti al totale della somma equivalgono all'energia emessa durante il processo di fusione dei due buchi neri sotto forma di radiazione gravitazionale.

Ma come vengono misurate le onde gravitazionali?

Ad oggi i maggiori rivelatori di onde gravitazionali sono il LIGO (Laser Interferometer Gravitational-Wave Observatory) con le sue due sedi a Livingstone, in Louisiana, e ad Hanford, nello stato di Washington, ed il più vicino Virgo che si trova a Cascina, vicino Pisa. La tecnologia usata per questi rivelatori si basa sull'interferometria di Michelson (dal nome dell'inventore Albert Abraham Michelson). Il principio di funzionamento è semplice: una sorgente produce luce (in genere un laser), ovvero radiazione elettromagnetica. Essa si propaga lungo la direzione di emissione grazie a una lente che concentra i raggi luminosi in un fascio parallelo. Dopo un certo percorso la luce viene separata in due fasci distinti tra loro ortogonali e uguali in intensità, mediante un beam splitter, ossia un divisore di fascio, come ad esempio una lastra piana parallela con la superficie debolmente metallizzata che funge da specchio semi riflettente. Dopo essere stati divisi, i due fasci seguono due cammini ottici diversi, e siccome i fotoni non devono interagire con nessun'altra particella al fine di ottenere un buon esperimento, vengono creati dei cammini ottici in dei tubi dove al loro interno viene creato un vuoto spinto.

Questi cammini ottici vengono posti su un sistema di supporti isolanti in modo da eliminare il più possibile il rumore dovuto alle vibrazioni meccaniche di fondo, dopodiché entrambi i fasci vengono riflessi da due specchi e ritornano così al divisore che agendo in modo contrario rispetto a prima (la parte riflessa viene ora trasmessa e viceversa) li dirige verso uno schermo. Qui, sovrapponendosi, generano delle frange di interferenza, che in base alla differenza di cammino ottico presenteranno dei massimi e dei minimi. Infatti, tenendo fissi i due cammini ottici, lo schermo dell'apparato presenterà delle frange di interferenza dovute alla differenza infinitesima dei due percorsi fatti dalla luce. La ricomposizione dei due fasci sullo schermo è dunque estremamente sensibile a variazioni di un percorso del laser rispetto all'altro o a vibrazioni del suo specchio, mostrando così uno spostamento delle frange di interferenza. In pratica se un'onda gravitazionale attraversa il sistema, i due bracci oscillano e la lunghezza dei due cammini ottici varia, formando un'interferenza che viene rilevata da un fotodiodo.

Per dare un'idea della sensibilità di questi interferometri, le onde gravitazionali che sono originate a centinaia di milioni di anni luce dalla Terra, distorcono i bracci (che sono dell'ordine di qualche chilometro) di soli 10^{-18} metri, ossia di una quantità migliaia di volte più piccola di un nucleo atomico. Il range di frequenza utile per LISA e Virgo va invece da qualche Hertz a circa 10^4 Hertz.

Ovviamente, maggiore è il cammino ottico dei fotoni, maggiore è la sensibilità dell'interferometro. La lunghezza dei bracci degli interferometri di LIGO e Virgo sono, rispettivamente, di 4 e 3 chilometri, tuttavia viene usata una tecnica tale per cui il fascio di fotoni viene riflesso più volte all'interno del braccio, aumentandone così il cammino ottico effettivo. Nonostante ciò, gli interferometri terrestri presentano delle limitazioni dovuti, da una parte all'impossibilità di costruire dei bracci eccessivamente lunghi, e dall'altra alla continua presenza di rumore meccanico di fondo, che nonostante venga continuamente filtrato ostacola comunque la rivelazione di deboli segnali.

Fig. 1: La missione LISA sarà in grado di misurare le onde gravitazionali nello spazio grazie ad un trio di satelliti distanti 5 milioni di chilometri tra di loro, in orbita ad 1UA intorno al Sole. La data di lancio è prevista per il 2034.

A tal proposito è in corso una nuova missione spaziale denominata LISA (Laser Interferometer Space Antenna) attualmente in fase di progettazione presso l'Agenzia Spaziale Europea (ESA), e sarà il primo osservatorio spaziale per le onde gravitazionali. La data di lancio è prevista per il 2034 con una vita operativa di cinque anni. Basata sulla stessa tecnologia degli interferometri terrestri, LISA sarà costituita da tre satelliti artificiali posti ai vertici di un triangolo equilatero e orbitanti attorno al Sole, con una distanza di 5 milioni di chilometri tra di loro. Ogni lato di questo triangolo sarà l'equivalente di un braccio dei rivelatori terrestri dove vengono fatti passare i fasci di fotoni e poi riflessi. La possibilità di creare dei cammini ottici così grandi permetterà a LISA di aumentare di molto la sensibilità delle misurazioni, ed inoltre sarà possibile misurare onde gravitazionali a bassa frequenza, con un range utile che andrà tra 10^{-4} Hertz fino a qualche Hertz, e inoltre non sarà affetto dai disturbi ambientali di origine terrestre come i microsismi.

Tutto questo apre numerose sfide che gli astrofisici devono affrontare. LISA infatti, a differenza dei rivelatori a Terra, sarà dominato dal segnale astrofisico e non dal rumore dello strumento, e questo significa un ottimo rapporto segnale-rumore. Questo rappresenta una sfida tecnologica e di analisi dati molto importante che gli scienziati di LISA si stanno già preparando ad affrontare. Tra questi nuovi segnali dal cosmo più profondo, l’inatteso è dietro l’angolo. Il primo osservatorio di onde gravitazionali dallo spazio, ci aprirà il sipario del palcoscenico cosmico: sentiremo finalmente la musica dell’Universo, e questo ci permetterà coglierne gli aspetti più misteriosi e affascinanti.

 

Claudio Meringolo

Studente PhD in Astrofisica e Relatività Generale, Università della Calabria

La tecnologia indaga sulle origini dell'Universo

E’ passato poco più di un secolo da quando Albert Einstein completava il suo lavoro più importante, la teoria che lega la gravità alla geometria dello spazio-tempo, la teoria della relatività generale. Con questa teoria Einstein completava il quadro sulla gravitazione, riuscendo finalmente a spiegare alcune piccole incongruenze che invece la vecchia teoria della gravitazione di Newton non riusciva a spiegare, come ad esempio la precessione dell’orbita di Mercurio, oppure la deflessione della luce durante una eclisse.

Computer Quantistici: una nuova era informatica

Abstract:

I computer quantistici sfruttano alcuni dei fenomeni più straordinari della fisica moderna e della meccanica quantistica per offrire enormi balzi in avanti nella potenza di elaborazione. Le future macchine quantistiche, infatti, promettono di superare anche i più potenti supercomputer di oggi e quelli di domani. La loro potenzialità sta nello sfruttare alcune delle leggi più strane e meno intuitive della meccanica quantistica, ma devono fare ancora i conti con problematiche di aspetto pratico.

Il trasferimento delle informazioni nei computer classici avviene tramite una sequenza ordinata di bit, ossia un flusso di impulsi elettrici oppure ottici che rappresentano degli “1” o degli “0”. Tutta l’informazione elettronica, dai nostri messaggi whatsapp ed e-mail alle pagine internet ai video di YouTube, è essenzialmente composta da lunghe stringhe di queste due cifre binarie. Il bit è essenzialmente l'unità di misura del contenuto d'informazione di un messaggio.

Come la Fisica aiuta la tecnologia di Claudio Meringolo

Abstract: La teoria della Relatività sviluppata tra il 1905 e il 1915 da Albert Einstein, non è solo una descrizione matematica elegante e completa della gravitazione. Possiamo infatti misurarne gli effetti nelle piccole cose di tutti i giorni, come ad esempio quando usiamo un sistema di navigazione che fa uso dei satelliti GPS.

Il sistema GPS (Global Positioning System) è composto da più satelliti che orbitano a circa 20 mila chilometri di altezza attorno alla Terra. Ognuno di questi satelliti ha degli orologi atomici ad altissima precisione con i quali, misurando il tempo impiegato da un segnale elettromagnetico a percorrere la distanza satellite-ricevitore e facendo la triangolazione con altri satelliti, riescono a ricavare la posizione esatta del ricevitore sulla superficie della Terra.

RIFERIMENTI

logo icted

ICTEDMAGAZINE

Information Communicatio
Technologies Education Magazine

Registrazione al n.157 del Registro Stam­pa presso il Tribunale di Catanzaro del 27/09/2004

Rivista trimestrale  

Direttore responsabile/Editore-responsabile intellettuale

Luigi A. Macrì