Periodico delle Tecnologie dell'Informazione e della
Comunicazione per l'Istruzione e la Formazione
A+ A A-

Dalla cybersecurity al deepfakes di Giovanna Brutto*

Abstract - L’ azione congiunta dei Big data, del Cloud e I.A (apprendimento automatico) sta velocemente producendo un aumento esponenziale della superficie digitale con un incremento esponenziale di minacce cybernetiche: nuove vulnerabilità, nuovi schemi di attacco, nuovi attori di minaccia sono sempre più frequenti.

* Docente - Dott.ssa in Scienze Politiche

Spesso quando si parla di cybersecurity e Intelligenza artificiale si identificano come un’arma a doppio taglio perché se da una parte l’uno può essere l’alleato dell’altra rispondendo agli attacchi e rendendo più resiliente il perimetro informatico; dall'altra parte anche gli attori malevoli la possono utilizzare e creare i vari attacchi cibernetici. In questo articolo vediamo il loro rapporto come possono aiutarsi vicendevolmente la cybersecurity e l’intelligenza artificiale e quali sono i trend del momento, quali le opportunità quali i rischi.

intelligenza 1

Dualismo: cybersecurity e Intelligenza artificiale (IA)

Secondo il Security Summit di marzo del 2021 che presenta l’ultimo rapporto CLUSIT (Associazione Italiana per la Sicurezza Informatica) sottolinea come nel 2020 gli attacchi cyber nel mondo sono aumentati del 12% rispetto all’anno precedente con danni globali che valgono 2 volte il PIL italiano tra cui il 10% ha sfruttato il tema Covid-19.

Il 14% degli eventi è stato dovuto a spionaggio cyber: nel mirino anche lo sviluppo dei vaccini. L’utilizzo dei malware (42%), tra i quali spiccano i cosiddetti ransomware; di tecniche sconosciute” come i casi di data breach, (per il 20%), e poi la maggior parte degli attacchi è rappresentato da phishing & social engineering (15% del totale);

Secondo i vari report gli attacchi informatici sono aumentati per l’emergere di due condizioni: da una parte l'esplosione del consumer web ha direzionato le aziende ad offrire i propri prodotti e servizi basati sull'intelligenza artificiale, dall'altra parte vi è la complessità degli attacchi che si stanno facendo sempre più importanti e mirati.

 Il mercato dei prodotti di cybersecurity ha visto negli ultimi anni soluzioni di I.A.  che includono il machine learning (apprendimento automatico), sia per analizzare nuovi malware (software malevoli) sia per trovare nuovi tipi di attacco alle reti.

Ma cosa può fare l'intelligenza artificiale per la cybersecurity? Innanzitutto l’ I.A. ha diverse applicazioni nella cybersecurity, che si differenziano a seconda delle tecnologie utilizzate (ad esempio la machine learning, natural language processing cioè il processo di trattamento automatico mediante un calcolatore elettronico delle informazioni scritte o parlate in una lingua).

I campi di azione di essa sono fondamentalmente due: sono quelli di pattern recognition e anomaly detection. (ossia di riconoscimento di un modello e rilevamento di anomalie).

La pattern recognition consiste nell'analisi e identificazione di sotto-aree dell'apprendimento automatico all'interno di dati grezzi al fine di identificarne la classificazione, cercare di conoscere alcuni schemi; quali quelli di attacco o di difesa: ad esempio in una azienda l’I.A. cerca di riconoscere e indicizzare i vari attacchi informatici.

L’anomaly detection, ossia il rilevamento di anomalie è l'identificazione di oggetti, eventi o osservazioni rari che sollevano sospetti differendo in modo significativo dalla maggior parte dei dati.

 In particolare, la tecnologia di riferimento è quella del machine learning, che aiuta nell'individuazione di modelli (pattern) di attacco - come nei firewall (componente hardware e/o software di difesa perimetrale di una rete) e negli intrusion detection system (un dispositivo software o hardware utilizzato per identificare accessi non autorizzati ai computer o alle reti locali) - o nel riconoscere il malware quando gli altri metodi si sono rivelati inefficaci o inconclusivi - generare alert  (un servizio di rilevamento) e attivare contromisure automatiche.

Rispetto ai ransomware per esempio una I.A. può consentire rispetto ai contenuti sospetti la classificazione e di conseguenza o potranno essere cestinati o resi inaccessibile all'utente ordinario.

In che modo le aziende dovrebbero utilizzare l’intelligenza artificiale e migliorare le loro performance?

Rispetto agli attacchi informatici passati ci sono dinamiche diverse. Nel frattempo, le reti sono diventate sempre più complesse. Con un numero di connessioni interne ed esterne in continua crescita, è diventato sempre più difficile tenere traccia di tutte le attività della rete e impostare parametri e firme che siano in grado di fornire solo il livello base di protezione. I perimetri delle reti sono sostanzialmente diventati ridondanti, mentre le minacce informatiche evolvono in modi imprevedibili.

 Non possiamo più fare affidamento ad una cybersecurity su un perimetro informatico fisico perché non esiste più quello definito dallo spazio aziendale dell'ufficio. Il concetto di rete aziendale in piena pandemia è cambiato: molti dipendenti delle aziende lavorano in smart working e il perimetro informatico comincia a diventare molto difficile da stabilire, non si è più dentro lo stesso ufficio, ma si è dislocati qua e là e decade il principio della sicurezza in profondità per mancanza di perimetro.

La Sicurezza Informatica sta diventando sempre più decentralizzata: non vi è più un data center (un'unità organizzativa), ma quelli che sono gli asset digitali (qualsiasi contenuto archiviato digitalmente) sono la maggior parte residenti in  cloud. Dobbiamo, quindi, ripensare al concetto dell’infrastruttura digitale, su quali applicazione risiede: stiamo parlando di uno spazio digitale che possiamo portare alla vista di una intelligenza artificiale affinché essa possa apprendere al normale funzionamento del business e non di attacchi, non di una mera classificazione binaria, ma di qualcosa che va oltre e cerchi di andare oltre le sfumature; occorre capire il contesto.

L’ analista di cybersecurity dovrebbe essere in grado di operare su enormi quantità di dati con accuratezza e velocità e imparando da tutti i falsi positivi e falsi negativi che via via incontra in modo da poter raffinare l’accuratezza delle future analisi, ma gli esseri umani non possono essere così accurati e veloci ed ecco l’intervento dell’I.A.

 Il cybercrime è passato in pochi anni da pochi target di alto profilo, a molti target di basso profilo distribuiti e diffusi e l’I.A. può proteggere i sistemi, identificare e prevenire gli attacchi sfruttando il potere dell'analisi di grandi quantità di dati.

In che modo i pirati informatici sfrutteranno l'intelligenza artificiale?

Ci sono stati i pacchetti di software rilasciati nelle reti con lo scopo di spiare e dare le informazioni a chi sta dietro per poter mascherare l'attività da parte dell'attaccante come se fossero delle attività legittime di un qualche funzionario, un utente di un’azienda.

Ci sono state tante email nelle campagne direzionate sul covid relative ai test e ai vaccini ed erano campagne in realtà del tutto fasulle anche con l'introduzione del nome dell'azienda; queste sono campagne di automazione piuttosto che di intelligenza artificiale vera e propria.

Altro esempio è il deepfake una tecnica utilizzata dall’I.A. per combinare e sovrapporre immagini e video esistenti con video o immagini originali, tramite una tecnica di apprendimento automatico.

I deepfake sono foto, video e audio creati grazie a software di intelligenza artificiale (AI) che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce.

La parola deepfake è un neologismo nato dalla fusione dei termini “fake” (falso) e “deep learning”, una particolare tecnologia AI. Le tecniche usate dai deepfake sono simili a quelle delle varie app con cui ci si può divertire a modificare la morfologia del volto, a invecchiarlo, a fargli cambiare sesso, ecc. (…)

La materia di partenza sono sempre i veri volti, i veri corpi e le vere voci delle persone, trasformati però in “falsi” digitali è una forma particolarmente grave di furto di identità. Le persone che compaiono in un deepfake a loro insaputa non solo subiscono una perdita di controllo sulla loro immagine, ma sono private anche del controllo sulle loro idee e sui loro pensieri, che possono essere travisati in base ai discorsi e ai comportamenti falsi che esprimono nei video. Le persone presenti nei deepfake potrebbero inoltre essere rappresentate in luoghi o contesti o con persone che non hanno mai frequentato o che non frequenterebbero mai, oppure in situazioni che potrebbero apparire compromettenti. In sostanza, quindi, un deepfake può ricostruire contesti e situazioni mai effettivamente avvenuti e, se ciò non è voluto dai diretti interessati, può rappresentare una grave minaccia per la riservatezza e la dignità delle persone. (Vademecum Garante per la protezione dei dati).

Questo porta a forme specifiche di azioni psicologicamente e socialmente molto dannose, ad esempio il “revenge porn”, cioè la condivisione online - a scopo di ricatto, denigrazione o vendetta, da parte di ex partner, amanti o spasimanti respinti, etc., oppure altre forme di illeciti quali  il sexting, pornografia illegale e pedopornografia.

Tutto questo è possibile perché i software open source sono molto accessibili; per crearli è semplice e  i software o app deepfake in circolazione sono abbastanza accurati e particolarmente prestanti.

Conclusioni

Diversi sono i limiti dell’I.A. nella cybersecurity: il primo riguarda la comprensibilità delle segnalazioni (explainability) cioè la presenza di un evento sospetto e non quale attacco è avvenuto, il secondo riguarda l’accuratezza delle segnalazioni cioè che ci siano falsi positivi o falsi negativi. Inoltre è necessario molto tempo nella conoscenza degli algoritmi; i suoi automatismi potrebbero generare disservizi in orari e giorni critici; ci vuole un addestramento continuo per rilevare nuove forme di attacchi informatici e quindi dei costi non indifferenti per l’azienda di manutenzione. Controlli di sicurezza in cloud, adozione di tecnologie IA/ML, nuova modalità di gestire il processo di produzione dei servizi digitali e nuovo modo di gestire gli allarmi sono le sfide da affrontare per chi si occupa di cybersecurity. Altre criticità sono rappresentate dal fatto che l’ I.A è dappertutto per i suoi vantaggi nell’automazione pertanto occorre scegliere gli ingredienti giusti per trarre i benefici e arrivare agli utenti con qualcosa che è umano e non lo è ...per aumentare l’efficacia crea verso gli utenti un impatto che deve essere gestito.

 

Bibliografia

CLUSIT  - Intelligenza artificiale e sicurezza: opportunità, rischi e opportunità – marzo 2021

Rapporto CLUSIT 2021

Deepfake -Vademecum Garante per la protezione dei dati

Webinar: ICT Security Magazine -Cyber-security-virtual-conference-2021/27-maggio-2021 - Nuove prospettive tra Intelligenza Artificiale e Cyber Security-

Relatori: Prof. Francesco Santini, Professore Associato Università di Perugia Dipartimento di Matematica ed Informatica, Mariana Pereira, Director of Email Security, Darktrace, Mirco Destro Group CIO Beltrame Group, Carolina Polito, Research Assistant presso il Centre for  Europeen Policy Studies (CEPS).

Sitografia

https://it.wikipedia.org/

https://www.garanteprivacy.it/

www.onoratoinformatica.it

www.intelligenzaartificiale.it

https://clusit.it/

https://www.zerounoweb.it/

 

0
0
0
s2sdefault

SVILUPPO DEL PENSIERO COMPUTAZIONALE NELLA SCUOLA PRIMARIA: RICERCA DELL’UNIVERSITÀ DI CHICAGO di Mario Catalano*

* Ricercatore, Docente, Editore Scientifico. 

Abstract: Integrare lo sviluppo del pensiero computazionale nel curricolo della scuola primaria con un approccio interdisciplinare: le evidenze scientifiche di una recente ricerca dell’università di Chicago. Questo articolo descrive i risultati di un recente studio condotto da un gruppo di ricerca dell’Università di Chicago e pubblicato sulla rivista scientifica “International Journal of STEM Education” nel mese di maggio del 2020. Lo studio affronta il tema controverso dell’integrazione, nel curricolo della scuola primaria, di esperienze sistematiche di apprendimento volte a favorire lo sviluppo del pensiero computazionale. Attraverso l’applicazione di metodi d’analisi quantitativa, i ricercatori dell’Università di Chicago dimostrano che inserire nelle attività didattiche tradizionali lo studio della Computer Science, con un approccio interdisciplinare ed orientato al problem-solving, non compromette il conseguimento degli obiettivi di apprendimento negli ambiti fondamentali della formazione linguistica e matematico-scientifica, bensì ci sono buone ragioni per credere in un impatto positivo al di là dei confini dell’insegnamento della Tecnologia. 

Questo articolo affronta un tema controverso, al centro del dibattito sull’articolazione del curricolo della scuola primaria in relazione agli scenari educativi emergenti, ossia l’integrazione di esperienze sistematiche di apprendimento volte a favorire lo sviluppo del pensiero computazionale. Si tratta di un bisogno formativo ormai ineludibile, che deriva dai profondi cambiamenti della nostra società e del mercato del lavoro – sempre più orientati a sostenere lo sviluppo delle tecnologie digitali e dell’intelligenza artificiale nel rispetto di valori culturali e principi etici – nonché dalla crescente consapevolezza che il pensiero computazionale sia una dimensione dell’intelligenza umana spendibile in molti ambiti… professionali e non (Wing, 2006). Inoltre, esistono molteplici evidenze scientifiche sull’importanza d’introdurre gli studenti più giovani alla comprensione della Computer Science per promuovere la scelta di corsi di studio universitari, nonché di percorsi di carriera, nel campo scientifico-tecnologico (Maltese and Tai, 2009; Tai et al., 2006).

In particolare, ci si chiede se possa essere sufficiente un rafforzamento dell’insegnamento della Tecnologia nella scuola primaria oppure se sia opportuno andare oltre e realizzare un radicale cambiamento di visione: ovvero considerare le competenze del pensiero computazionale e le attività di digital design elementi preziosi di un’esperienza di apprendimento più ricca, motivante ed efficace, perché tesa alla risoluzione di problemi significativi attraverso l’impiego unitario di diversi saperi disciplinari.

Questa seconda e più ambiziosa prospettiva, tuttavia, suscita alcune perplessità: segnatamente, docenti e dirigenti scolastici temono che destinare alle attività di coding e robotica educativa – seppur in un’ottica di interdisciplinarità – parte del tempo tradizionalmente dedicato alle discipline fondamentali (Lingua, Matematica e Scienze) possa compromettere il livello finale degli apprendimenti in questi ambiti cruciali per la formazione dei ragazzi.

Un recente studio (Century, Ferris, and Zuo, 2020) di un gruppo di ricerca dell’Università di Chicago (Outlier Research & Evaluation, UChicago STEM Education), finanziato da National Science Foundation e pubblicato sulla rivista scientifica “International Journal of STEM Education” (Fig. 1), affronta questi interrogativi con metodi di analisi quantitativa (hierarchical linear modelling). Lo studio giunge alla conclusione che il suddetto timore sia infondato e che, anzi, ci siano buone ragioni per credere che futuri e più approfonditi studi sul tema possano confermare l’impatto positivo dello sviluppo del pensiero computazionale, attraverso pratiche didattiche interdisciplinari, sul conseguimento degli obiettivi di apprendimento nell’ambito linguistico e in quello matematico-scientifico.

 

Fig 1

Fig. 1: Sito Web del gruppo di ricerca Outlier Research & Evaluation dell’Università di Chicago (UChicago STEM Education), che ha realizzato l’articolo scientifico illustrato in questa memoria (a destra, un estratto dell’articolo pubblicato su “International Journal of STEM Education”).

Più in dettaglio, la ricerca dell’Università di Chicago ha coinvolto sedici scuole primarie della contea di Broward in Florida, uno dei distretti scolastici più popolosi degli Stati Uniti d’America; 321 insegnanti e 5.791 studenti degli ultimi tre anni di scuola primaria sono stati selezionati per formare il campione e per la raccolta dei dati. Gli obiettivi della ricerca riguardano l’impatto della realizzazione di moduli didattici interdisciplinari, che stimolino gli allievi degli ultimi tre gradi della scuola primaria a servirsi sinergicamente del pensiero computazionale e delle discipline tradizionali per risolvere un dato problema, su due aspetti fondamentali del loro cammino formativo:

1) i livelli di apprendimento in Inglese, Matematica e Scienze;

2) gli orientamenti e le percezioni rispetto alla scuola, in generale, e allo studio della Computer Science, in particolare.

Così, il campione selezionato è stato suddiviso in gruppi di confronto (attività didattica tradizionale) e gruppi da coinvolgere nella sperimentazione e, in collaborazione con alcuni docenti e membri dello staff del distretto scolastico di riferimento, per ciascuno dei tre gradi finali della scuola primaria, sono stati creati due moduli transdisciplinari (Time4CS modules) che includevano lezioni di Inglese (ELA, English Language Arts), Matematica, Scienze e Computer Science attingendo, in quest’ultimo caso, dai portali Web per l’apprendimento della programmazione digitale “code.org” e “scratch.mit.edu”. Ai sei moduli derivanti è stato destinato metà del tempo normalmente assegnato all’ambito linguistico (literacy or ELA block), ossia 90 minuti al giorno, per un periodo di 5-7 settimane nell’anno scolastico 2016-2017. I docenti sono stati sollecitati, nell’insegnamento del coding, a non limitarsi ai corsi proposti dal portale Code.org per la fascia d’età dei propri allievi, ma ad esplorare anche le risorse relative alle altre fasce d’età, nonché a sperimentare il linguaggio di programmazione visuale Scratch (scratch.mit.edu) e altre opportunità disponibili in rete (ad esempio, Barefoot coding, Kahn Academy). A titolo esemplificativo, s’illustra l’articolazione del primo modulo didattico interdisciplinare problem-based per il quarto anno della scuola primaria, “Florida history with science applications to renewable energy”: il proprietario di un popolare parco giochi della Florida sa che, ogni anno, molti visitatori stranieri vengono a divertirsi con le sue attrazioni; alcuni turisti provenienti dall’America Latina gli comunicano che avrebbero gradito dei giochi in virtù dei quali conoscere meglio lo stato della Florida… la sua storia, i suoi costumi. Pertanto, si chiede agli studenti di progettare una tale attrazione, in modo da alimentarla con fonti di energia alternative e rispettose dell’ambiente, e di realizzarne una simulazione finale con Scratch.

Per rispondere alle domande di ricerca, il team di studiosi dell’Università di Chicago si è servito di noti test per la misurazione del livello degli apprendimenti in Inglese, Matematica e Scienze (Achieve3000 LevelSet per il solo ambito linguistico, Florida Standards Assessment per Inglese, Matematica e Scienze). Inoltre, sono stati impiegati quesiti per la valutazione degli orientamenti e delle percezioni degli alunni (nei confronti della scuola e dello studio della Computer Science) attraverso indicatori psicometrici (scale di Likert a 5 livelli: 1= totalmente in disaccordo, …, 5= totalmente d’accordo), nonché questionari per rilevare la percezione soggettiva dei docenti circa il loro impiego di strategie didattiche interdisciplinari ed orientate a favorire il lavoro di gruppo, l’impegno intellettuale degli studenti e la loro intraprendenza.

I risultati delle elaborazioni statistiche dei dati raccolti rivelano che l’integrazione di moduli interdisciplinari problem-based per lo sviluppo del pensiero computazionale nelle attività didattiche tradizionali non ha effetti negativi sulle performance degli studenti nelle prove standardizzate FSA relative all’ambito linguistico e a quello matematico. Inoltre, dalle analisi è emerso un dato molto interessante: ossia un’associazione statistica positiva tra la percentuale di corsi di coding (proposti nel portale Code.org) completati dal gruppo-classe in aggiunta rispetto a quelli previsti per la specifica classe d’età degli alunni considerati e la performance degli allievi stessi nei test linguistici (FSA e Achieve3000) e in quelli matematici (FSA). Un impatto positivo sui livelli di apprendimento degli studenti, specialmente nella sfera linguistica, è stato messo in luce anche per la variabile legata all’impiego da parte dei docenti di strategie interdisciplinari nelle attività didattiche usuali. Quest’ultimo effetto, tuttavia, potrebbe essere dovuto a forme spurie di correlazione statistica: gli studenti più competenti hanno performance migliori nei test e, inoltre, completano più rapidamente i corsi di coding assegnati (potendo, quindi, dedicarsi a corsi aggiuntivi). Pertanto, occorrono studi più approfonditi per confermare un risultato così promettente.

 

Fig 2

Fig. 2: Siti Web delle associazioni no-profit Code.org e Scratch Foundation che, operando su scala internazionale, offrono esperienze on-line di apprendimento nell’ambito della Computer Science ai più giovani. 

BIBLIOGRAFIA:

Century, J., Ferris, K. A., and Zuo, H. (2020), Finding time for computer science in the elementary school day: a quasiexperimental study of a transdisciplinary problem-based learning approach”, International Journal of STEM Education 7, 20 (2020). https://doi.org/10.1186/s40594-020-00218-3

Maltese, A. V., and Tai, R. H. (2009), “Eyeballs in the fridge: sources of early interest in science”, International Journal of Science Education, 32(5), 669–685.

Tai, R. T., Liu, C. Q., Maltese, A. V., and Fan, X. T. (2006), “Planning early for careers in science”, Science, 312(5777), 1143–1144.

Wing, J. (2006), “Computational thinking”, Communications of the ACM, 49(3), 33–35.

0
0
0
s2sdefault

L’INTELLIGENZA ARTIFICIALE E IL POTERE COGNITIVO DELLE METAFORE: SPUNTI DI RIFLESSIONE PER UNA DIDATTICA INNOVATIVA

di Mario Catalano

Ricercatore, Docente, Editore Scientifico.

 

Abstract: Gli algoritmi d’intelligenza artificiale si rivelano sempre più delle tecnologie efficaci nell’amplificare i poteri cognitivi dell’uomo; tuttavia, il modo in cui oggi “addestriamo” le macchine a divenire accurate nei compiti di previsione e di classificazione è ritenuto dagli esperti ancora “primitivo”, se si pensa alla complessità del pensiero umano. La ricerca nel campo dell’intelligenza artificiale ha iniziato ad indagare alcune delle dimensioni più affascinanti di quella umana, ossia la metacognizione, la capacità d’imparare ad imparare, il saper astrarre da un dominio specifico di conoscenza delle strategie per risolvere una certa classe di problemi e, al bisogno, applicarle – mutatis mutandis – in un contesto nuovo e differente. Tutto ciò rappresenta l’occasione per esplorare il mistero dell’apprendimento ed offre anche spunti di riflessione utili per dare un significato didattico preciso ad una delle aspirazioni fondamentali della scuola di oggi: “insegnare ad imparare”.

Ho deciso di scrivere questa breve memoria allo scopo di condividere le riflessioni emerse in un recente confronto con il Prof. Paolo Massimo Buscema, scienziato di fama internazionale nel campo dell’intelligenza artificiale, Presidente e Direttore del Centro di Ricerca Semeion di Roma e Full Professor Adjoint presso il Dipartimento di Matematica e Statistica dell’Università del Colorado. L’ho intervistato in occasione di uno degli episodi della miniserie “Etica e AI” incardinata nel palinsesto di “Intelligenza Artificiale Spiegata Semplice”, una delle principali Web community, in Italia, per la formazione e la divulgazione sui temi legati al mondo dell’intelligenza artificiale (questo è il link alla videoregistrazione dell’incontro: https://youtu.be/P1OVU6-ZdmQ).

 

Fig. 1: “ETICA e AI”: conduce Mario Catalano, ospite Prof. Paolo Massimo Buscema.

 

Gli argomenti toccati sono molteplici: dall’algoretica al rapporto tra scienza e fede, dalle innovative applicazioni dell’intelligenza artificiale in medicina agli studi avanzati sull’apprendimento delle macchine. In particolare, vorrei parlare proprio di quest’ultimi, considerate le potenziali implicazioni per il mondo della formazione e della scuola.

Gli algoritmi d’intelligenza artificiale si rivelano sempre più delle tecnologie efficaci nell’amplificare i poteri cognitivi dell’uomo: la sua capacità di analizzare dati ed estrarne regolarità, modelli per interpretare un certo fenomeno (capire, ad esempio, quali siano i suoi fattori principali), la capacità di far previsioni e prendere conseguenti decisioni proficue ed efficienti.

Eppure, il modo in cui oggi “addestriamo” le macchine a divenire accurate nei compiti di previsione e di classificazione è ritenuto dagli esperti ancora “primitivo”, se si pensa alla complessità del pensiero umano. La logica del machine learning, infatti, consiste nel fornire alla macchina moltissimi dati (ad esempio, tante immagini – le più diverse possibili! – di un gatto cui si associa l’etichetta “GATTO” e tante immagini di un cane cui si assegna la categoria “CANE”) e lasciare che un algoritmo determini la rappresentazione matematica del fenomeno studiato minimizzando l’errore di previsione relativo agli esempi selezionati.

Inoltre, i modelli d’intelligenza artificiale in grado di realizzare il cosiddetto “apprendimento profondo” delle macchine (deep learning) operano sui dati-esempio attraverso livelli successivi di astrazione, in modo da catturare, ad ogni livello, i tratti fondamentali di un certo fenomeno e di cogliere, di livello in livello, schemi di crescente complessità. Ad esempio, nel caso di una rete neuronale profonda per il riconoscimento di un’immagine (Nielsen, 2015), un sistema di neuroni artificiali interconnessi ed organizzati in molteplici strati successivi potrebbe, nel primo strato, riconoscere i bordi, nel secondo, individuare forme geometriche semplici create dai bordi (triangoli, rettangoli, etc.) e così via.

Fig. 2: Schema di una rete neuronale artificiale con diversi strati di neuroni interconnessi.

 

Addestrare reti artificiali con molti strati di neuroni totalmente interconnessi (ciascun neurone connesso con tutti gli altri dello strato successivo) presenta dei problemi; pertanto, nella pratica applicativa, si ricorre a delle soluzioni alternative che, tuttavia, s’ispirano alla medesima logica di un apprendimento che avvenga attraverso vari livelli concatenati di astrazione.

Nonostante tutti questi metodi stiano dimostrando grande utilità in molti settori – quali la Medicina, l’Economia, il Marketing, etc. – rivelano un grande limite, ossia l’incapacità di prevedere gli eventi estremi: quelle rare manifestazioni di un fenomeno che si allontanano significativamente dal suo andamento medio. Inoltre, lasciano fuori dal mondo dell’intelligenza artificiale alcune delle dimensioni più affascinanti di quella umana, ossia la metacognizione, la capacità d’imparare ad imparare, il saper astrarre da un dominio specifico di conoscenza delle strategie per risolvere una certa classe di problemi e, al bisogno, applicarle – mutatis mutandis – in un contesto nuovo e differente.

Il Prof. Buscema si riferisce a tutto ciò parlando della possibilità di cogliere legami invisibili tra mondi diversi, di costruire “ponti impossibili” tra realtà apparentemente molto lontane (Buscema, 2020). La sua “Teoria dei Mondi Impossibili” (Buscema et al., 2018) mira proprio a sviluppare metodi d’intelligenza artificiale più accurati in un dominio specifico – segnatamente nel prevedere gli eventi rari (i cosiddetti “cigni neri”) – attingendo ad ambiti conoscitivi simili, che possano consentire un notevole ampliamento della fenomenologia, sulla base della “similarità della forma di forme diverse” (Buscema, 2020). Così, ad esempio, impiegando pool di reti neuronali artificiali (differenti sia per la loro architettura sia per la natura dei dati utilizzati nella fase di addestramento) potrebbe essere possibile migliorare le previsioni nel campo della Geofisica, creando sinergie tra set di dati relativi agli eventi sismici, alle eruzioni vulcaniche, agli eventi meteorologici, etc.

Questi studi innovativi sono certamente l’occasione per esplorare il mistero meraviglioso dell’apprendimento ed offrono anche spunti di riflessione utili per dare un significato didattico preciso ad una delle aspirazioni fondamentali della scuola di oggi: “insegnare ad imparare”.

Infatti, saper trasformare conoscenze ed abilità maturate in un certo ambito in competenze spendibili in contesti nuovi può essere la via per il successo formativo, a scuola e nella vita. Si pensi al caso di un allievo della Scuola Primaria che incontri delle difficoltà nell’imparare ad affrontare i problemi di Matematica. Nella mia personale esperienza di docente di Tecnologia, che si dedica alla formazione del pensiero computazionale, ho notato come lo sviluppo di videogiochi con linguaggi di programmazione visuale rappresenti, per i ragazzi, un contesto particolarmente motivante in cui poter apprendere con facilità ed efficacia strategie generali per risolvere un problema, potenzialmente spendibili in molti campi del sapere. Mi riferisco, in particolare, alla capacità di articolare un problema dato in compiti elementari oppure trasformarlo e risolverlo in una versione più semplice, da ricondurre a quella originaria attraverso processi di astrazione (Brennan and Resnick, 2012).

Più in dettaglio, gli allievi possono scoprire, con il supporto del docente, che programmare l’interazione del protagonista di un gioco di avventura con i suoi nemici segue una logica modulare, che prevede la stesura e l’esecuzione in parallelo di più script: il codice per conferire al protagonista le sue abilità di movimento, quello per determinare l’epilogo del gioco quando il protagonista soccombe nello scontro con i suoi nemici e, infine, lo script relativo all’esito opposto. Quando, poi, gli studenti si trovano di fronte ad un problema diverso, ad esempio nell’ambito dello studio della Matematica, le strategie cognitive acquisite nelle attività di game design, in virtù di una forte motivazione intrinseca e di un approccio costruttivo all’errore, possono rivelarsi fruttuose anche nel nuovo contesto.

 

BIBLIOGRAFIA:

Brennan, K. and Resnick, M. (2012). Using artifact-based interviews to study the development of computational thinking in interactive media design. Paper presented at annual American Educational Research Association meeting, Vancouver, BC, Canada.

Buscema, P. M., Sacco, P., Della Torre, F., Massini, G., Breda, M., and Ferilli, G. (2018). “Theory of impossible worlds: Toward a physics of information”. Chaos 28.

Buscema, P. M. (2020). L'arte della previsione Intervista sull’intelligenza artificiale a cura di Vittorio Capecchi. Mimesis Edizioni.

Nielsen, M. A. (2015). Neural Networks and Deep Learning. Determination Press.

0
0
0
s2sdefault
  • Scritto da Cristiana Rizzuto
  • Categoria: Ricerca e innovazione
  • Visite: 57

E-HEALTH: VERSO UNA SANITÀ DIGITALE, SEMPRE PIÙ “CONNESSA” E SMART di Cristiana Rizzuto*

Abstract - Il processo di Digital Transformation che ha interessato il settore sanitario, può essere descritto attraverso la nota espressione “E-Health”, un termine piuttosto recente, utilizzato per indicare l'applicazione all'area medica e a quella dell'assistenza sanitaria dell'Information & Communication Technology (ICT). L’ E-Health assume sempre più importanza grazie alle sue iniziative che migliorano l’accesso alle cure da parte del cittadino e che contribuiscono ad aumentare l’efficienza e la sostenibilità del settore sanitario.

* Ingegnere biomedico di presidio presso Ospedale Maggiore di Bologna 

sanitàdigitale

La situazione di emergenza sanitaria, causata dal Covid-19, ha chiesto rapide risposte per far fronte ai nuovi bisogni che si sono manifestati in ambito sanitario,  enfatizzando la necessità di un’innovazione radicale nel settore Healthcare, che ha portato a un’accelerazione del processo di Digitalizzazione della Salute e delle Cure, con un notevole incremento dei servizi di telemedicina e di monitoraggio a distanza delle patologie.

In tale contesto, si è affermato sempre di più il concetto di una Sanità digitale, “connessa” e smart, in grado di garantire una maggiore facilità di accesso alle cure da parte del cittadino, con un aumento dell’efficienza e della sostenibilità del settore sanitario.  Il processo di  Digital Transformation, che ha interessato il settore sanitario, può essere descritto attraverso la nota espressione “E-Health”, un  termine piuttosto recente, utilizzato per indicare l'applicazione all'area medica e a quella dell'assistenza sanitaria dell'Information & Communication Technology (ICT).  Si tratta di un concetto multidimensionale, definito dal Ministero della Salute come:  “L’utilizzo di strumenti basati sulle tecnologie dell’informazione e della comunicazione per sostenere e promuovere la prevenzione, la diagnosi, il trattamento e il monitoraggio delle malattie e la gestione della salute e dello stile di vita”. 

Attualmente, le principali iniziative dell’ E-Health a livello nazionale ed europeo sono soprattutto volte a migliorare il percorso assistenziale del cittadino nell’erogazione dei servizi sanitari, con soluzioni innovative che consentono sin dal primo momento di interazione del paziente con la rete di assistenza sanitaria di tracciarne l’intero percorso di cura. Oggi l'avvio del percorso di cura avviene tramite il medico di base, il quale è supportato dal Fascicolo Sanitario Elettronico e dalla E-Prescription. Il paziente  può accedere ai servizi territoriali e ospedalieri attraverso il Centro Unificato di Prenotazione (CUP), nonché il sistema centralizzato informatizzato di prenotazione delle prestazioni sanitarie, incaricato di gestire l'intera offerta dei servizi sanitari (SSN, regime convenzionato, intra moenia) presenti sul territorio di riferimento. Il medico di base viene, inoltre, coinvolto nella gestione della fase post-acuta, durante la quale, oltre al Fascicolo Sanitario Elettronico, entra in gioco la telemedicina.

A livello tecnologico,  gli investimenti più significativi nell’ambito dello sviluppo di software medicali in Italia riguardano la Cartella Clinica Elettronica, il Fascicolo Sanitario Elettronico  e tutte le soluzioni per il download dei referti via web e le prenotazioni via internet. L’ambito della telemedicina è ancora in fase di  espansione. Molto diffuso nelle strutture sanitarie è il teleconsulto medico, specie ai fini della gestione e del monitoraggio di pazienti con patologie croniche, mentre soluzioni più avanzate, come  ad esempio la teleriabilitazione, sono attualmente in fase di sperimentazione. Entriamo nel dettaglio di ciascuna iniziativa E-Health citata.

Cartella Clinica Elettronica e Fascicolo Sanitario Elettronico

Il concetto di Cartella Clinica Elettronica è assimilabile a quello di cartella clinica di ricovero ospedaliero o cartella clinica ambulatoriale specialistica, mentre il Fascicolo Sanitario Elettronico (FSE) è costituito dall'insieme di tutte le cartelle cliniche, indagini diagnostiche preventive e tutte le informazioni relative alla salute presente e passata del paziente. Il Fascicolo Sanitario Elettronico (FSE) quindi è lo strumento attraverso il quale il cittadino può tracciare e consultare la propria storia clinica, condividendola con i professionisti sanitari per garantire un servizio più efficace.

E-Prescription

La prescrizione elettronica o ricetta digitale,  è una prescrizione medica generata, trasmessa e compilata elettronicamente al computer, che sostituisce le prescrizioni cartacee e via fax. Essa presuppone il collegamento in rete delle strutture di erogazione dei servizi sanitari: medici di medicina generale, pediatri, aziende sanitarie locali, aziende ospedaliere e farmacie pubbliche e private.

Telemedicina

Per Telemedicina si intende una modalità di erogazione di servizi di assistenza sanitaria, tramite il ricorso a alle Information and Communication Technologies (ICT), in situazioni in cui il professionista della salute e il paziente non si trovano nella stessa località. La Telemedicina comporta la trasmissione sicura di informazioni e dati di carattere medico per la prevenzione, la diagnosi, il trattamento e il successivo controllo dei pazienti. La prestazione in Telemedicina non sostituisce la prestazione sanitaria tradizionale, ma la integra per migliorarne efficacia, efficienza e appropriatezza, con il vantaggio di ridurre  i costi sanitari, offrire una maggiore disponibilità e ridurre il rischio di diffusione delle malattie infettive. 

La Telemedicina assume grande importanza nella prevenzione secondaria e nella gestione delle patologie croniche, cioè in tutti i casi di pazienti già affetti da patologie (ad esempio diabete o patologie cardiovascolari), che pur conducendo una vita normale devono sottoporsi a costante monitoraggio di alcuni parametri vitali al fine di ridurre il rischio di insorgenza di complicazioni. A tal proposito bisogna sottolineare che fanno parte della telemedicina anche  tutte le applicazioni per smartphone di tipo clinico-medico, che permettono all'utilizzatore di gestire la propria salute attraverso il proprio cellulare. Attualmente lo sviluppo di applicazioni mediche si è concentrato principalmente sulla gestione dell'ipertensione arteriosa e delle condizioni diabetiche, con la possibilità di monitorare il proprio stato di salute, compilando un vero e proprio diario pressorio o alimentare, contenente i dati glicemici.

Il ruolo del 5G

La rete 5G giocherà un ruolo fondamentale nel processo Digitalizzazione della Sanità, con grandi vantaggi in termini di servizi ai cittadini. Quello che può sostanzialmente offrire una rete 5G sono tre vantaggi fondamentali:  velocità superiori, con almeno 20 Gbps in down-link e 10 Gbps in up-link per ogni base di ricarica mobile, una latenza vicina allo zero e una maggiore capacità di supportare dispositivi (si parla di circa un milione di dispositivi connessi  ogni 10 metri quadri). È evidente che questi elementi possano consentire un potenziamento del digitale in sanità, che si tratti di operazioni chirurgiche a distanza o telemedicina o monitoraggio da remoto di pazienti cronici, con vantaggi evidenti per la qualità delle cure e per la sostenibilità economica delle strutture sanitarie. Difatti,  il 5G potenzierà lo sviluppo dell’IoT, consentendo un ulteriore salto in avanti nella cura del paziente, semplificando le diagnosi a distanza o rendendo possibile la remote surgery.

Dall’inizio della pandemia sono già trenta le strutture sanitarie con le quali è stato siglato un accordo per la copertura con micro-antenne DAS (Distributed Antenna System), al cento per cento compatibili con la rete 5G. Le strutture sanitarie coinvolte hanno un bacino di utenza di 9 milioni di persone per oltre 16mila posti letto. Il lavori sono stati già completati in 20 ospedali, mentre nei rimanenti 10 sono in corso, con una distribuzione geografica che ne vede il 50% al Nord e l’altro 50% equamente distribuito tra Centro e Sud del Paese.

0
0
0
s2sdefault

Agricoltura 4.0: Scenari, opportunità e ruolo del legislatore di Benedetto Fucà

Abstract: Negli ultimi anni l’agricoltura sta vivendo un periodo di forti cambiamenti: sostenibilità e qualità sono i due paradigmi entro cui questi cambiamenti si muovono. L’evoluzione tecnologica sta apportando gli input necessari per guidare questi paradigmi. Questo ecosistema produttivo agricolo digitale tuttavia necessità di norme. L’articolo si pone l’obiettivo di contestualizzare la situazione attuale del settore e offre spunti di riflessione su possibili aspetti normativi.

L’agricoltura rappresenta la prima forma produttiva dell’uomo da molto tempo. Si esplica nell'attività umana che consiste nella coltivazione di specie vegetali al fine di ottenere prodotti a scopo alimentare. Si tratta di un settore che ha notevolmente contribuito allo sviluppo della civiltà umana. Un processo andato di pari passo con le prime forme di società stabili, con una propria organizzazione. Tre fattori hanno contribuito in maniera primaria allo sviluppo di questo settore: 

  • il know how umano che nel tempo si è sviluppato attraverso la conoscenza e la tecnica delle colture, dei terreni, delle modalità.
  • le condizioni climatiche che avvengono in un determinato luogo, nel corso degli anni o del singolo anno produttivo. 
  • L’apporto di nuove tecnologie che hanno migliorato la produzione, la meccanizzazione di alcuni processi

 Sono due fattori che incidono sull’out-put finale. Si tratta di una serie di attività in cui incidono l’attività umana e il ciclo biologico di ciascuna specie vegetale che viene coltivata. Queste attività svolte secondo un criterio conseguenziale al fine di ottenere il raccolto il quale viene immesso nel mercato per soddisfare un bisogno primario: l’alimentazione. Ovviamente proprio per lo sfruttamento delle risorse naturali l’agricoltura viene inquadrata all’interno del settore primario. 

Negli ultimi anni sono due i profili che richiedono tutela: da un lato un’agricoltura sostenibile e in grado di garantire un approvvigionamento alla popolazione mondiale; dall’altro lato la certezza che un prodotto di alta qualità, coltivato in un dato luogo e soggetto a processi di trasformazione tipiche non venga contraffatto attraverso prodotti simili ma che non rispettano i requisiti tipici (aliud pro alio). 

All’interno di questi due requisiti, appare necessario, individuare non soltanto le norme che possano regolamentare questo settore (le quali sono già presenti) quanto comprendere quali tecnologie possano essere utili. Negli ultimi anni, si parla per l’appunto di agricoltura 4.0, un mercato in rapida espansione; solo a titolo esemplificativo si riportano alcuni numeri di una ricerca del 2018 dell’ Osservatorio Smart Agrifood della School of Management del Politecnico di Milano:  vale  fra 370 e 430 milioni di euro, il 5% di quello globale e il 18% di quello europeo, il mercato italiano dell'agricoltura 4.0 nel 2018, di cui oltre 300 soluzioni, già sul mercato, sono impiegate dal 55% delle aziende agricole intervistate. Ed è anche in rapida crescita: +270%.

Le soluzioni tecnologiche e metodologie in grado di incidere positivamente sono diverse: 

  • Sensori e Big Data Analytics: attraverso la sensoristica Internet of Things è possibile monitorare il processo di coltivazione, mediante i dati, di una pianta al fine di comprendere lo sviluppo, possibili malattie, la necessità di interventi specifici. 
  • Big Data Analytics: Questo quantitativo di dati possono essere analizzati proprio grazie al data analytics che consente di fare un’analisi predittiva in grado offrire informazioni per affrontare situazioni future. La Data Analytics è un processo di ispezione, pulizia, trasformazione e modellazione di dati con il fine di evidenziare informazioni che suggeriscano conclusioni e supportino le decisioni strategiche aziendali.
  • Blockchain: catena di blocchi, immutabile e distribuita, in grado di offrire la tracciabilità del prodotto finale, attraverso la raccolta dei dati e la loro analisi: infatti, è possibile offrire al cliente finale tutte le informazioni di quel dato prodotto. Viene, inoltre  garantita la tracciabilità e la certezza che quel dato prodotto sia effettivamente di qualità. 

    A ben vedere si tratta di soluzioni che offrono un ecosistema digitale in grado di guidare una profonda trasformazione del settore.

    Anche l’Unione Europea sta già indirizzando le proprie scelte verso un sistema che favorisca la digitalizzazione del settore: nel periodo 2014-2020 la politica agricola comune dovrebbe fornire servizi e infrastrutture migliori a 18 milioni di cittadini che vivono nelle aree rurali, pari al 6,4 % della popolazione rurale dell’UE. Una priorità in grado di favorire un processo che renda la produttività e la valorizzazione agricola.

    Inoltre, è stata firmata una convenzione “Digital day 2019” sottoscritta da 24 Stati membri dell’UE (tra cui l’Italia). Una dichiarazione di cooperazione sulla digitalizzazione dell'agricoltura nelle aree rurali europee. L'obiettivo della dichiarazione di cooperazione è quello di intraprendere una serie di azioni a sostegno di una digitalizzazione di successo dell'agricoltura e delle aree rurali in Europa, nonché dello smart farming, che si basa sull'idea di creare sistemi di supporto di tecnologie ICT in grado di elaborare dati in tempo reale, in termini di crescita e sviluppo, e quindi di rafforzare i settori dell'agricoltura intelligente e della tracciabilità dei prodotti alimentari.

    Esistono già soluzioni sul mercato in grado di offrire l’ accompagnare questa trasformazione: da soluzioni in grado di adattarsi a qualsiasi coltura ad altri più specifici e maggiormente efficaci che si focalizzano su una sola coltura andando ad offrire una maggiore peculiarità e automazione completa. La scelta non è di poco conto, in quanto una soluzione peculiare è consigliabile laddove la realtà produttiva si concentri su un solo tipo di coltura; viceversa in realtà produttive dedite a più tipologie di coltivazioni appare utile adottare una soluzione in grado di adattarsi a qualsiasi tipo di coltura tenendo ben a mente che questo non incide sulla capacità di analizzare il ciclo produttivo annuale, quanto all’integrazione con requisiti normativi imposti per quel tipo di coltivazione. 

    Questo ecosistema tecnologico, come si è detto sopra, può anche apportare un approccio più consapevole lato consumatore. Dato un prodotto finale immesso in commercio, il cliente attualmente acquista leggendo l’etichetta che accompagna il prodotto. Per quanto esistono già norme che contrastano la frode alimentare, tuttavia non offrono un sistema di certezza e una customer experience completa. Con l’apporto di tecnologie, non solo il cliente attraverso un QR code può leggere le stesse informazioni che essendo condivise su blockchain sono immutabili ed inoltre può anche ricevere ulteriori informazioni sull’azienda che li produce, sul campo, sulle caratteristiche del luogo.

    Questo processo da un lato va fortemente accompagnato con un sistema di norme in grado di tutelare le caratteristiche tecnico-produttive, in quanto l’automazione  è vero che può migliorare ed implementare la produzione, ma è anche vero che la manodopera dell’uomo in alcuni aspetti è insostituibile. Anche per quanto riguarda i sistemi di antifrode è necessario creare un sistema omogeneo di informazioni minime che devono essere riportate all’interno di un ecosistema composto da una blockchain, fermo restando la possibilità di una soluzione che possa offrire informazioni ulteriori.

    Per fare ciò, è necessario un dibattito tra legislatore e stakeholders (agricoltori, operatori digitali, consumatori finali) che sappia avvalorare e allo stesso tempo guidare questi cambiamenti epocali. Risulta evidente che, per fare ciò, è necessario che le istituzioni europee siano in prima linea.

     Benedetto Fucà

    Digital forensic e computer crime

     Business analyst 

    Laurea in Giurisprudenza e Master in Cyber security

0
0
0
s2sdefault

Argomento