Periodico delle Tecnologie dell'Informazione e della
Comunicazione per l'Istruzione e la Formazione
A+ A A-

Robotica educativa

Chirurgia robotica: Da Vinci® XI HD - ultima frontiera mini-invasiva

Abstract - Un approccio, tecnologicamente avanzato, che consente di praticare un intervento chirurgico, manovrando a distanza un robot, che riproduce il gesto chirurgico con altissimi livelli di accuratezza.

 

L’avvento della robotica e dell’intelligenza artificiale in sala operatoria, ha determinato, specie nell’ultimo decennio, una vera e propria rivoluzione della chirurgia tradizionale, consentendo di potenziare le tecniche laparoscopiche mininvasive, con un particolare tipo di pratica chirurgica, che rappresenta l’ultima frontiera della chirurgia di precisione: la chirurgia robotica o Robotic Assisted Surgery.

Si tratta di un approccio tecnologicamente avanzato, che permette all'operatore di praticare un intervento chirurgico, manovrando a distanza un robot, capace di riprodurre e miniaturizzare i movimenti della mano umana all’interno delle cavità corporee, con innumerevoli benefici pre, intra, e post-operatori, sia per il paziente che dal punto di vista clinico.

Attualmente l’unica tecnologia disponibile per accedere ad una reale chirurgia robotica è rappresentata dal sistema robotico Da Vinci, nome volto a celebrare lo scienziato italiano, i cui studi sull’anatomia effettuati nel 1400 possono essere considerati alla base della progettazione del primo robot conosciuto della Storia.

La  prima versione del Robot Da Vinci, come sistema robotico per la chirurgia, è stata lanciata sul mercato nel 1999 dalla Intuitive Surgical Inc., azienda leader mondiale nella tecnologia della chirurgia robotica mininvasiva, con approvazione da parte della FDA nell’anno successivo per la chirurgia generale e più tardi anche per la chirurgia toracica, cardiaca, vascolare, urologica, ginecologica e otorinolaringoiatrica. Nell’arco di 15 anni la Intuitive Surgical Inc. ha ulteriormente potenziato la tecnologia del Da Vinci, fino ad arrivare a un modello evoluto di quarta generazione nel 2014: il  Da Vinci® XI HD.

 

Da Vinci® XI HD: com’è fatto?

 

Il Da Vinci® XI HD costituisce la piattaforma più evoluta per la chirurgia robotica mininvasiva, in grado di offrire una visione tridimensionale immersiva del campo operatorio potenziando fino a 10 volte la normale visione dell’occhio umano, oltre a favorire una maggiore facilità di accesso alle anatomie più complesse, una precisione superiore e una diminuzione del tempo di degenza, degli effetti collaterali e del rischio clinico. Il robot non è autonomo nell’esecuzione delle operazioni, ma è sempre guidato da un chirurgo, che fisicamente presiede una workstation lontano dal campo operatorio, dotata di monitor e comandi, dalla quale muove i bracci del robot, collegati agli strumenti endoscopici, che vengono introdotti nelle cavità corporee attraverso piccole incisioni.

Il sistema chirurgico Da Vinci® XI HD è costituito da tre componenti principali:

 

  • Console chirurgica: costituisce il centro di controllo, posizionato lontano dal campo sterile, attraverso cui il chirurgo opera per mezzo di due manipolatori, simili a joystick, e di pedali che guidano la strumentazione, osservando il campo operatorio tramite il monitor dell'endoscopio 3D.

 

  • Carrello paziente: costituisce l’unità operativa del sistema da Vinci e si compone di quattro bracci mobili e interscambiabili, supportati da un sistema di fibre ottiche. Sui bracci dei robot sono installati gli strumenti Endowrist, dotati di un polso in grado di compiere una rotazione di quasi 360°, nonché progettati con sette gradi di movimento, raggio di gran lunga superiore rispetto a quello del polso umano.

 

  • Carrello visione: contiene l'unità centrale di elaborazione dell’immagine, oltre ad essere sede delle principali fonti di energia per il controllo della emostasi.

 

 Applicazioni chirurgiche e vantaggi

 

Benché la chirurgia robotica trovi impiego in diversi ambiti di applicazione chirurgica, la branca che più di tutte attualmente beneficia di tale pratica innovativa è l’urologia, specie quella oncologica. Grazie alla visione tridimensionale ad alta definizione e alla possibilità di utilizzare strumenti miniaturizzati con un’ampia gamma di movimenti, è possibile eseguire operazioni molto delicate con estrema precisione, tutelando le fibre nervose che controllano la continenza e l’erezione. In tale ambito, una delle procedure più eseguite con il robot da Vinci è la prostatectomia radicale, che prevede la rimozione totale di prostata, vescicole seminali e linfonodi loco-regionali in pazienti affetti da cancro alla prostata.

Per quanto riguarda più in generale i vantaggi della chirurgia robotica, essi sono significativi sia per il paziente, grazie alle piccole incisioni e alla riduzione del traumatismo tissutale, con conseguente minor sanguinamento, riduzione del dolore post-operatorio e dei tempi di recupero delle normali attività, sia dal punto di vista clinico, per l’aumento della precisione delle prestazioni, che per la riduzione del rischio. Per il chirurgo, inoltre, è vantaggiosa la posizione più comoda, rispetto a quella assunta di solito durante l’operazione chirurgica, con una notevole riduzione della tensione muscolare, aspetto fondamentale, soprattutto durante interventi molto lunghi, che consente di mantenere un’attenzione maggiore durante tutte le fasi della procedura.

 

Chirurgia robotica in Italia

 

Ad oggi in Italia risultano installate ben oltre 100 piattaforme robotiche Da Vinci, con la presenza di almeno una postazione in ciascuna regione e maggiore prevalenza nel Centro-Nord, numero che ha consentito al nostro Paese di attestarsi come leader europeo nell’utilizzo della chirurgia robotica. Sul podio europeo, al fianco del nostro Paese, vi è anche la Francia, seguita da Germania e Gran Bretagna. Mentre nel mondo, a precederla,  vi sono soltanto gli Stati Uniti e il Giappone. Per quanto concerne la frequenza con cui si ricorre alla chirurgia robotica, osservando l’andamento dei casi di utilizzo negli ultimi anni, notiamo una notevole crescita, basti pensare che dal 2013, anno in cui si erano registrati circa 10.000 interventi, il numero si è poi raddoppiato nel 2018, continuando a crescere con costanza fino ad oggi. Le applicazioni in ambito urologico costituiscono circa il 70 % dei casi registrati; a seguire, con percentuali più basse, troviamo la chirurgia generale e toracica, la ginecologia e l’otorinolaringoiatria.

In Italia la tecnologia Da Vinci è distribuita da Ab medica s.p.a., azienda italiana  leader nella produzione e nella distribuzione di tecnologie medicali avanzate, nonché di sistemi di chirurgia robotica.

 

Fonti e approfondimenti:

        https://www.abmedica.it

  • PubMed Central®

        https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6193435/

 

 

 Cristiana Rizzuto

Ingegnere Biomedico di Presidio presso Ospedale Maggiore di Bologna

0
0
0
s2sdefault

L’EVOLUZIONE DELLE IA: DAI PRIMI ROBOTS ALLA MECCANICA QUANTISTICA di Katia Canonico

ABSTRACT:

Quali effetti avrà l’evoluzione dell’automazione in futuro? Si creeranno nuovi posti di lavoro o verremo soppiantati dai robots? Quale impatto ha avuto l’interpretazione di Copenaghen dopo la conferenza di Solvay del 1927? Un oggetto macroscopico può effettivamente ritrovarsi in uno stato di correlazione quantistica? Dal principio di indeterminazione di Heisenberg secondo cui non è possibile determinare contemporaneamente la posizione e la velocità delle particelle subatomiche, ai fenomeni quali l’entanglement quantistico che porta a conseguenze logiche misteriose come il paradosso del gatto di Schrödinger, alla base della crittografia quantistica e del Quantum Computing.

 

L’EVOLUZIONE DELLE IA: DAI PRIMI ROBOTS ALLA MECCANICA QUANTISTICA

di Katia Canonico

 

Nel 2017 ebbi l’occasione di partecipare alla Robocup JR rescue line. Allora il nostro team dell’Istituto Tecnico Industriale Statale “Enrico Fermi” di Castrovillari, utilizzò una scheda Arduino Mega 2560, che fa uso di un ATmega2560 ed è un’evoluzione dell’Arduino Mega, collegata alla scheda Arduino UNO + EV SHIELD tramite comunicazione I2C in cui ricopriva il ruolo di “Master”, mentre l’Arduino Uno + EV SHIELD quella di “Slave”. A tal proposito furono redatti due programmi software: uno per il Master e uno per lo Slave.

La comunicazione I2C è uno dei metodi che permettono di comunicare con altri dispositivi utilizzando come canale di trasmissione dati i protocolli seriali e ce ne servimmo in quanto l’uso della EV SHIELD sulla scheda Adafruit causava contrasti nei motori, dovuti all’identicità tra le variabili delle librerie.

La libreria Wire dispone di tutte le funzioni necessarie alla realizzazione Master-Slave tra due schede Arduino.

 

Il bus I2C, basandosi su due fili, non permette la comunicazione contemporanea tra Master e Slave. Lo scambio dati deve essere gestito dal Master tramite gli indirizzi (univoci) degli Slave. Il flusso può essere sintetizzato in questo modo:

  1. Il Master invia sul bus un bit di start
  2. Il Master invia sul bus l’indirizzo dello slave con cui vuole comunicare
  3. Il Master decide se scrivere o leggere dal dispositivo
  4. Lo Slave legge o scrive in base alla richiesta del Master

 

Ma come nasce la robotica?

Nel 1919, uno degli allievi di Freud, lo psicanalista Viktor Tausk, pubblicò un articolo intitolato “Sulla genesi della macchina influenzante nella schizofrenia”. In questo studio Tausk notava come fosse comune, a molti pazienti schizofrenici, la convinzione che esistesse una macchina elettrica capace di governare i destini degli uomini. Tausk arrivò ad elencare almeno due caratteristiche ricorrenti di questa macchina:

  • la macchina invia sempre ai pazienti delle immagini con cui li influenza e li condiziona;
  • la macchina produce e ruba i pensieri dei malati e con dei raggi elettrici li suggestiona.

Il termine robot vede la luce nel 1920, in un dramma distopico ceco “R.U.R.”, dove i lavoratori vengono sostituiti e sterminati da androidi efficienti. Nel 1939 Electro (figura a lato), uno scheletro di ingranaggi in ferro con un motore avvolto nell’alluminio, crea grande scalpore all’esposizione universale di New York: in questi anni la narrativa dipinge i robots come utili aiutanti o macchine malvagie che annientano i loro padroni.

In un film degli anni ’40, il robot maggiordomo Roll-Oh soddisfa tutte le esigenze di una casalinga.

Nel 1950 lo scrittore di fantascienza Isaac Asimov enuncia un codice morale dei robots:

  • Un robot non può far del male ad un essere umano;
  • Deve obbedire agli ordini ricevuti dal personale qualificato, a meno che non violino la regola numero uno;
  • Un robot deve proteggere la propria esistenza, a patto di non violare la regola numero uno o due.

Nel 1961 la General Motors inserisce bracci robotici nella catena di montaggio per affrontare la crescente domanda di automobili in America. Nel 1966 la Nokia produce i primi bracci robotici per la Scandinavia e l’Europa dell’Est, nel 1969 la Kawasaki li fabbrica per il mercato asiatico, nel 1970 seguono BMW, Mercedes-Benz, British Leyland, Fiat che li impiegano nelle proprie fabbriche. Ma è il Giappone a sfruttare al massimo questa nuova tecnologia: nel 1981, infatti, nelle fabbriche di auto vengono impiegati 6000 robots a fronte dei 370 del Regno Unito (per questo, negli anni’80, l’industria automobilistica britannica è arretrata, incapace di competere con le auto più economiche importate dal Giappone). Oggigiorno, i tecnici giapponesi impiegano l’IA per generare robots più amichevoli e sensibili, come Asimo, sviluppato da Honda nel 2000. Il motivo è radicato nella religione: secondo gli antichi insegnamenti shintoisti, gli oggetti prodotti dall’uomo possono avere un’anima umana. Nel 2013, il robot umanoide di Toyota Kirobo, viene mandato sulla stazione spaziale internazionale per fare compagnia all’astronauta: i due trascorrono 18 mesi in orbita insieme. Sebbene i robots non provino sentimenti, essi vengono impiegati per sostegno emotivo; il Giappone è in testa, con 300.000 robots da compagnia: possono aiutare i bambini autistici a riconoscere e ad esprimere reazioni emotive, aiutano nell’assistenza agli anziani, insegnano e giocano con i bambini, rimpiazzano i genitori assenti e le mogli umane (dal 2016, più di 3700 uomini hanno scelto di sposare ologrammi robotici).

Nel 2020 condividiamo la Terra con 9 milioni di robots: circa 3 milioni lavorano in fabbrica, ma li troviamo anche sulle strade sotto forma di automobili a guida autonoma. Eppure il 72% degli americani teme che i robots porteranno via il lavoro agli umani. In una provincia cinese 2 milioni di lavoratori sono stati rimpiazzati dai robots in soli 2 anni. I robots sono presenti persino nei nostri ospedali: circa 5000 bracci chirurgici Da Vinci operano pazienti in tutto il mondo, nonostante il 69% degli americani si sente a disagio con i chirurghi robotizzati. Secondo Shoshana Zuboff, i nostri dati sono diventati il “nuovo petrolio”: l’intelligenza artificiale e la macchina algoritmica raccolgono i dati che ciascuno di noi lascia tramite i nostri comportamenti online.

La parola cognitive computing, cioè sistemi cognitivi capaci di lavorare deriva dall’IBM, che utilizzò questo termine, dal punto di vista commerciale, nel 2013 quando iniziò a pubblicizzare Watson, un insieme di servizi di intelligenza artificiale che già nel 2011 avevano battuto gli esseri umani in un gioco televisivo chiamato Jeopardy!. Nello stesso anno, nascevano i primi sintetizzatori vocali come Siri, che utilizzano tecnologie di reti neurali. Le reti neurali sono strutture simili a quelle del nostro cervello sebbene i “neuroni” delle reti neurali si dispongano in layers (o “livelli”). I neuroni del primo livello sono detti neuroni di input , mentre i neuroni dell’ultimo livello sono i neuroni di output; fra i neuroni di input e quelli di output sono presenti livelli cosiddetti “nascosti”: ogni neurone di ogni livello è collegato a tutti i neuroni del livello prima e a tutti i neuroni del livello dopo. Inoltre ogni collegamento ha a sua volta un numero, che viene chiamato peso, che rappresenta quanto forte o quanto debole sia la connessione fra quei due neuroni. Il primo modello di neurone artificiale venne progettato nel 1943 da Warren Sturgis McCulloch e Walter Pitts. Nel 2015, AlphaGo, progetto nato per studiare le reti neurali profonde, sconfisse il campione europeo di Go Fan Hui; nel 2016 si aggiudicò l’incontro contro uno tra i più forti giocatori mondiali di go, il sudcoreano Lee Sedol.

Ma cos’è l’intelligenza? E come è possibile determinare se una macchina è più o meno intelligente? Blaise Pascal (1623-1662) sosteneva che la nostra intelligenza è estremamente limitata. Il filosofo Douglas Hofstader in Gödel, Escher, Bach, scrive: ”Nessuno sa dove sia la linea di confine fra comportamento non intelligente e comportamento intelligente; di fatto, forse, non ha senso pensare che esista un confine netto. Ma certamente esistono delle caratteristiche essenziali dell’intelligenza: reagire in modo molto flessibile alle varie situazioni; trarre vantaggio da circostanze fortuite; capire messaggi contraddittori oppure ambigui; riconoscere l’importanza relativa di diversi elementi in una situazione; trovare i punti di somiglianza fra diverse situazioni, nonostante esse siano differenti; trovare i punti di differenza fra situazioni, nonostante esse siano simili; creare nuovi concetti prendendo vecchi concetti e mettendoli insieme in nuovi modi, inventare idee che siano nuove.” Già Ada Lovelace (1815-1852), figlia del poeta inglese Lord Byron, prefigurò il concetto di intelligenza artificiale, sebbene non ritenesse che la macchina potesse divenire pensante come gli esseri umani. Ada descrisse un algoritmo per la macchina analitica di Babbage (che si ispirò al telaio di Jacquard) per calcolare i numeri di Bernoulli: algoritmo che oggi viene generalmente riconosciuto come il primo programma informatico della storia.

Per determinare se una macchina sia in grado o meno di esibire un comportamento intelligente, si fa riferimento ad un criterio suggerito dal matematico inglese Alan Turing nel suo articolo Computer machinery and intelligence e noto come “test di Turing”. Per questo test, Turing prese spunto dal “gioco dell’imitazione” in cui sono presenti tre partecipanti: un uomo, una donna e una terza persona. Quest’ultima è separata dalle altre e deve stabilire, tramite una serie di domande, qual è l’uomo e quale la donna. A loro volta l’uomo ha il compito di ingannare e portare la terza persona a fare un’identificazione errata mentre la donna ha il compito di aiutarla. Se la percentuale di volte in cui la terza persona indovina chi sia l’uomo e chi sia la donna è simile prima e dopo la sostituzione dell’uomo con la macchina, allora la macchina dovrebbe essere considerata intelligente in quanto indistinguibile da un essere umano.

Per macchina intelligente Turing ne intendeva una in grado di concatenare ed esprimere pensieri non privi di significato. Nell’articolo, infatti, riprende il Cogito cartesiano secondo la quale l’uomo differisce dagli animali: gli animali sono res extensa, mentre l’uomo deve essere una res cogitans fatta di pensiero. Dagli anni ’70 fino agli anni ’90 infatti, l’intelligenza artificiale è stata basata sulla logica e cioè sulla capacità di emulare il nostro modo di ragionare (sia nella deduzione, che nell’induzione, che nella rappresentazione della conoscenza) a partire da John McCarthy, considerato il padre della logica computazionale, che inventò il linguaggio di programmazione Lisp che gli valse il premio Turing nel 1971. Sappiamo però che la nostra intelligenza non si limita soltanto alla logica ma, stando agli psicologi, possediamo tanti tipi di intelligenze (logico-matematica, tattile etc.); inoltre secondo il premio Nobel della medicina Eric Kandel la nostra intelligenza deriva certamente da una parte innata ma soprattutto dall’esperienza. Gli attuali algoritmi di intelligenza artificiale si sono evoluti sempre di più in quello che si chiama machine learning (o apprendimento automatico) e il deep learning (apprendimento profondo). Con machine learning si intendono quegli algoritmi che non sono stati codificati per un singolo problema ma che attraverso i dati ottimizzano i propri parametri (apprendono, appunto) e possono essere usati per diversi scopi. Per questi motivi, dal 2018 la Comunità europea ha dato un’altra definizione di intelligenza artificiale che non si limita soltanto all’emulazione prevista dal test di Turing ma che al contrario afferma che un’intelligenza artificiale deve occuparsi di sistemi che tendenzialmente fanno tre cose: hanno un comportamento intelligente, riescono ad estrarre informazioni dall’ambiente tramite sensori (capacità visiva, olfattiva, di riconoscimento del linguaggio, lavorano attraverso l’Internet of Things) e riescono ad intraprendere azioni (l’intelligenza artificiale è sicuramente software che è embodied in sistemi hardware che possono essere robots, auto, droni, aerei etc.). In questo momento le IA non possiedono un certo grado di autonomia per compiti specifici ma sono sottoposti a controllo da parte dell’essere umano: questo perché in Europa crediamo fortemente nell’Human-Centered AI, ovvero l’intelligenza artificiale centrata sull’uomo, in quanto l’IA non nasce semplicemente per rispondere alle interazioni con l’essere umano ma nasce soprattutto per essere trasparente, compresa e garantita dall’essere umano (si parla di intelligenza artificiale eXplainable).  E cosa succederà quando l’intelligenza artificiale ci supererà in astuzia? Questo ipotetico punto di non ritorno è conosciuto come singolarità.

Nel maggio 1997, il computer di IBM Deep Blue, batté il campione mondiale di scacchi Garry Kasparov. Gli ingegneri dell’IBM programmarono Deep Blue affinché aspettasse alcuni minuti dopo aver concluso i calcoli, in modo tale da dare l’impressione che la macchina fosse incerta sul da farsi. Ciò fece abbassare la guardia a Kasparov, che dopo aver vinto la prima partita abbandonò la seconda, mentre la terza, la quarta e la quinta si conclusero con un pareggio: Deep Blue sconfisse Kasparov per 3 ½ contro 2 ½ . Il 4 Luglio 1997 il robot a guida autonoma si spinge lì dove nessun essere umano era mai arrivato: Marte. Grazie all’IA, Sojourner esplora per tre mesi il suolo di Marte, raccogliendo campioni e inviando 550 fotografie. Rover simili si rivelano indispensabili anche sulla Terra: sono utili a disinnescare ordigni nelle zone di guerra e salvare vite dal Kosovo all’Afghanistan mentre in Ruanda i droni trasportano sangue per trasfusioni in luoghi difficili da raggiungere. Da allora i computer divennero sempre più intelligenti grazie alla legge di Moore (secondo la quale il numero dei transistors raddoppia ogni 2 anni, aumentando in modo esponenziale la loro velocità e capacità) che permette di integrare un numero sempre più grande di transistors su unità di superficie.

Eppure esistono alcune cose che gli attuali computer non sono in grado di fare, come ricostruire alcune tipologie di molecole per studiarle nella loro completezza: esse, difatti, richiederebbero un numero inimmaginabile di bits (nel caso della molecola della penicillina il numero di bits ammonterebbe a 10^86…per rappresentarla occorrerebbe un computer grande quanto l’intero universo!). Ma cosa accade se arriviamo al limite in cui non si possono fare transistors più piccoli dell’atomo? Qui entra in gioco la meccanica quantistica la cui natura stessa è oggetto di dibattito tra gli scienziati, che si stanno ancora interrogando su di essa per assicurarsi che sia la teoria che funziona per qualsiasi sistema, indipendente dalle sue misure (la stessa giunzione p-n dei transistors segue le leggi della meccanica quantistica!). La fisica quantistica descrive il mondo microscopico attraverso l’equazione di Schrödinger, la cui soluzione talvolta non è una sola, bensì possono coesistere più soluzioni cioè più funzioni di stato o funzioni d’onda: la soluzione, per un sistema quantistico, è una sovrapposizione di stati, ovvero la somma di tutti gli stati in cui il sistema potrebbe trovarsi simultaneamente. La meccanica quantistica è importante per le scoperte tecnologiche in quanto permette di realizzare un computer quantistico potente che contenga un numero di unità quantistiche (Qubit): per fare ciò bisogna fare in modo che questo sistema resti in uno stato di sovrapposizione che necessita di essere isolato in quanto estremamente delicato, chiamato coerenza. A tal proposito ci serviamo di alcuni refrigeratori atti a portare la parte ad una temperatura più bassa della temperatura dello spazio interstellare (nello spazio interstellare è presente ancora un rimasuglio della temperatura dell’esplosione del Big Bang).

Uno dei paradossi quantistici è il paradosso del Sorite (dal greco antico σωρίτης sōritēs aggettivo di σωρός sōros, che significa "mucchio") paradosso da cui scaturisce per esempio la "teoria degli insiemi fuzzy" cioè una teoria di classi con contorni indistinti. Generalmente attribuito al filosofo greco Eubulide di Mileto, stabilisce che dato un mucchio di sabbia, se eliminiamo un granello dal mucchio avremo ancora un mucchio. Eliminiamo poi un altro granello: è ancora un mucchio. Eliminiamo ancora un granello e poi ancora uno: il mucchio diventerà sempre più piccolo, finché rimarrà un solo granello di sabbia. In quale momento quel mucchio iniziale non è più un mucchio? Un paradosso ben conosciuto dai fisici in quanto gli oggetti macroscopici seguono le leggi della fisica classica, mentre i quanti seguono la meccanica quantistica. Ma se tutto è formato da particelle e tutte le particelle seguono la meccanica quantistica, allora non dovrebbe tutto quanto seguire la meccanica quantistica? Quanto grande può essere il mucchio affinché abbia ancora comportamenti quantistici? Possibile far comportare un corpo visibile ad occhio nudo come un quanto? Per rispondere a queste domande, il team di Aaron Douglas O’Connell ha costruito un chip minuscolo e lo ha posto in uno stato particolare: una volta che il chip era stato schermato dalla luce, sistemato in un contenitore a cui era stata tolta l’aria e raffreddato ad una temperatura prossima allo zero assoluto, il chip ha cominciato a vibrare e a non vibrare allo stesso tempo, una cosa che può accadere solo nella meccanica quantistica.

Katia Canonico

Ex Studentessa ITIS "E.Fermi" Castrovillari

Studentessa di Ingegneria Elettronica presso UNICAL

0
0
0
s2sdefault

DEEPFAKE, UNA NARRAZIONE MISTIFICATA DELLA REALTA' di Eleonora Converti

Deepfake, una narrazione mistificata della realtà

di Eleonora Converti[*]

Abstract - Cosa sono le deepfakes? Come si realizzano? Possono definirsi il “lato oscuro” delle fakenews? Uno sguardo attento al fenomeno dei video manipolati per creare scene iperrealistiche.

Un anno fa una popolarissima trasmissione di Canale 5, Striscia la Notizia, trasmetteva un fuori onda che mostrava Matteo Renzi criticare in maniera “colorita” alcuni ex colleghi di partito e altri membri del governo Conte. Si trattava di una deepfake realizzata sovrapponendo al corpo di un imitatore il volto di Matteo Renzi e facendo sembrare che fosse davvero lui. Era il settembre del 2019 e solo allora in Italia il dibattito su questa tipologia di fake news diveniva virale, facendo scoprire che già da tempo in tutto il mondo “accadevano” eventi analoghi. Video artificiali manipolati ed alterati per creare delle scene iperrealistiche indistinguibili dalla realtà. Così Putin dichiarava guerra alla Cina, Nancy Pelosi ubriaca pronunciava un discorso in pubblico, Scarlet Johansson era involontaria protagonista di film porno, per non parlare degli innumerevoli falsi con Nicolas Cage e Tom Cruise.

Ma se le vittime destinate sembrerebbero finora essere personaggi noti e pubblici non c’è molto da stare tranquilli. Fa riflettere il tono rassegnato della dichiarazione di Scarlet Johansson : “Combattere contro le deepfake che utilizzano il mio volto è una causa persa. E’ solo questione di tempo, perché il problema riguardi chiunque”.

Ma cosa sono le deepfakes? Il termine coniato nel 2017 da un utente di Reddit, sito internet di social news, è usato per indicare brevi filmati realizzati utilizzando la tecnica del deep learning, quella branca dell’Intelligenza Artificiale che studia e realizza gli algoritmi che simulano il funzionamento del nostro cervello attraverso le reti neuronali artificiali.

Un uso innocuo e, per certi versi, anche simpatico di questi software consiste nell’utilizzo delle reti neuronali per codificare e decodificare un segnale proveniente da un’immagine al fine di migliorarne la qualità.

Figura 1-Immagine dal blog di Alan Zucconi

Nel diagramma di sopra è mostrata la tecnica di compressione e decompressione di un immagine. Prendiamo una faccia, la passiamo in un encoder ottenendo una faccia latente, il vettore di base, che passando attraverso un decoder viene ricostruita in maniera più definita rispetto all’originale. E’ la tecnica su cui si basa FaceApp la nota applicazione per dispositivi iOS e Android creata dalla società Russa Wireless Lab per divertire chi può vedere invecchiare o ringiovanire il proprio volto. Il Codacon, comunque, ha rilevato forti dubbi in merito al trattamento dei dati personali degli utenti avviando un’indagine. La società di Pietroburgo sostiene che i dati vengono conservati in un Cloud solo per 48 ore per poi essere cancellati. Tempo sufficiente per farne entrare in possesso chi non dovrebbe?

Ma torniamo alle Deepfake e vediamo come la cose diventano ancora più serie.

Figura 2-Immagine dal blog di Alan Zucconi

In pratica encoder e decoder vengono disaccoppiati come nella figura di sopra. Da un lato un encoder costruisce la faccia A, dall’altro un encoder costruisce la faccia B. Ma i rispettivi vettori latenti vengono scambiati. Si realizza così il cambiamento delle facce le cui espressioni però rimangono nella faccia latente. Ciò significa generare un volto per il soggetto B con la stessa espressione e orientamento del soggetto A. Ecco come realizzare una simulazione della realtà e rivoluzionare il concetto di “reale”.

Diverte ed affascina la tecnica di far parlare Salvator Dalì, di far sorridere la Gioconda o far fare l’occhiolino a Leonardo, ma quando Nancy Pelosi appare ubriaca o un falso Obama parla di concetti ben lontani dalla sua indole, le cose cambiano. Passano poche ore prima delle smentite, ma quel lasso di tempo è più che sufficiente perché quel video diventi virale e venga distribuito, perché qualcuno accolga favorevolmente quella rappresentazione mistificata della realtà in quanto in linea con le proprie convinzioni che trascendono da qualunque evidenza documentale. Ci sarà sempre chi tende a prendere dalla realtà le parti che più interessano perché piacciono, che si lascerà trasportare in un vortice di allucinazione condivisa che porta a non credere nella scienza ma ai pregiudizi.

Quali le possibili soluzioni per contrastare il potere subdolo delle deepfake di innalzare il livello di rischio e far sembrare realistico qualsiasi messaggio?

Alcuni software sono in grado di analizzare velocità e frequenza con cui vengono chiusi gli occhi in un volto deepfake o riconoscono la mancanza di nitidezza di un’immagine quando gli occhi non fissano bene la telecamera. Tutto inutile. I software delle deepfake non hanno tardato ad adeguarsi e migliorarsi.

Si sta pensando alla sistemazione stringente di una normativa, forse l’unica efficacemente percorribile. ll 2 luglio 2019 lo stato americano della Virginia ha approvato la prima legge americana contro i deepfake ed il revenge porn.

In Italia il Garante per la protezione dei dati personali ha aperto un’istruttoria sul social network Telegram perché rende disponibile un software in grado di “spogliare” virtualmente una persona attraverso l’intelligenza artificiale deepfake. Ma le leggi sono ancora inadeguate a tutelare le vittime. E questo è un problema che riguarda tutti, non solo le vittime.

In attesa di un sempre più stringente perfezionamento delle norme , non ci resta che ricorrere ad un approccio del problema che incentivi la diffusione di un senso etico di produzione del software così come della tecnologia in generale. Paolo Benanti nel riferirsi all’etica della tecnologia conia un nuovo termine, l’algoretica (sintesi tra algoritmo ed etica) e sostiene che “La dimensione etica è quella sfida che vuole prendere sul serio il potere trasformativo dell’Intelligenza Artificiale ed orientare questo progresso nell’ordine dello sviluppo”.

 

[*] Docente di Sistemi Automatici e Animatore Digitale - ITIS “E.Fermi” Castrovillari

0
0
0
s2sdefault

Robotica educativa ai tempi del Coronavirus

Robotica educativa ai tempi del Coronavirus

Abstract

Si ripercorre l’esperienza della robotica educativa nel periodo del lockdown attraverso le ansie e le capacità inventive di una comunità educante che ha investito molto su un progetto educativo.

Come dimenticare quella sera del nove marzo del 2020 quando il Presidente del Consiglio appariva in televisione dicendo che non c’era più tempo, bisognava rinunciare tutti a qualcosa, cambiare le nostre abitudini per tentare di arrestare l’avanzata devastante di questo maledetto virus.

Io rientravo da poco in casa dopo avere ritirato dal negozio di componenti elettronici una nuova scheda che sarebbe servita per migliorare la “visione ottica” di uno dei robot della nostra scuola. Erano in pieno fermento i preparativi per le imminenti gare di selezione territoriali per le qualificazioni alla gara Nazionale Robocup Junior 2020, sezione rescue - line. Tale competizione mette a confronto rover che ,seguendo un percorso tortuoso segnato da una linea nera e pieno di detriti ed ostacoli, giungono in una zona di salvataggio recuperando le vittime sia vive e che morte.

Due team erano già pronti ma le rispettive macchine un pò meno, anche perché le regole della nuova competizione sarebbero state più stringenti e complesse.

L’ansia da prestazione e da riconferma del titolo di Campioni d’Europa 2018, Campioni d’Italia 2019 e terzi nel mondo a Sidney 2019, cominciava a crescere. Lo spirito del gioco di squadra come chiave dei successi fin lì ottenuti aveva lasciato un segno indelebile nel cuore dei campioni uscenti che, pur avendo ormai terminato il percorso scolastico, nonostante gli impegni universitari, non esitavano a tornare a dare il loro contributo da coach per addestrare ed incoraggiare le nuove leve. Il fine settimana erano sempre lì, anche dopo aver dato un esame: “Prof scusate il ritardo, ma all’esame mi hanno tenuto più del previsto e ho perso il pullman”.

Inutile dire che quel materiale elettronico è ancora nella mia borsa.

Già dalla mattina di quel fatidico nove marzo avevo avuto la sensazione che qualcosa di lì a poco sarebbe cambiato. Le notizie erano preoccupanti. Si parlava già della necessità di un “distanziamento sociale” e con il collega Alberico Abenante ci si aggirava nervosamente fra i tavoli del laboratorio esortando i ragazzi a tenersi ad un’opportuna distanza l’uno dall’altro.

Difficile da farsi in un laboratorio di robotica se lo si pensa nella sua accezione più autentica di ambiente di apprendimento in cui dare libero spazio, sia pur controllato dagli insegnanti, alla creatività alla comunicatività, alla disponibilità emotiva, all’apertura ,al senso del gruppo in un concerto di condivisione di idee ed emozioni che si concretizza sempre in prodotti finiti. Non semplici prodotti, asettici ed inerti ma quasi simbiotici con chi li ha creati, con chi finisce con considerarsi un tutt’uno con la propria creatura, parlandole ed esortandola ad andare bene, a non sbagliare. Oserei dire dunque che il “distanziamento sociale” si pone in netta antitesi con la robotica educativa che piuttosto si esprime efficacemente attraverso “l’avvicinamento sociale”.

Non sempre tutto va per il verso giusto o almeno non subito. Si prova e riprova, magari anche sbagliando, senza drammi e scoraggiamenti, perché dall’errore non si esce frustrati ma arricchiti e consolidati nelle competenze. Se quel motore e quel sensore non hanno funzionato se ne fa un’analisi ragionata sui loro principi di funzionamento. La lezione di fisica, elettronica o meccanica viene da sé per l’insegnante che, dopo aver spiegato, lavorato e magari anche sbagliato insieme ai sui studenti, finisce con raccogliere una gran mole di risultati e di elementi di valutazione. Inoltre le soddisfazioni arrivano quando, come Montessori diceva, “gli alunni stanno lavorando come se noi non ci fossimo”.

Ma tutto questo da quel nove marzo si fermava.

Seguivano i giorni delle lezioni a distanza delle video lezioni sincrone ed asincrone, dei programmi di simulazione: Tinkercad, Freeze.

Simulare a distanza, anche questo era possibile. Concentrarsi sul software piuttosto che sull’hardware per cercare di risolvere i problemi di un percorso tortuoso che i nostri robot avrebbero dovuto percorrere per andare a salvare vittime. Concentrarsi dunque sul ragionamento della costruzione del programma, mettendo da parte gli altri due aspetti intrinseci della robotica educativa: la materialità e l’emozione nella partecipazione alle gare che coinvolgono sempre tutti gli attori in un afflato emotivo singolare ed irripetibile.

Questo tipo di magia unica era certamente impossibile ricreare virtualmente. Ma qualcos’altro di magico era accaduto ugualmente. Scoprivo che ognuno aveva a casa un piccolo laboratorio attrezzato con Kit elettronici non certo per principianti.

Ecco che c’era chi realizzava un termo-scanner, chi un dispenser igienizzante con sensore ottico, chi perfezionava un dispositivo evita - ostacoli per non vedenti. C’era, inoltre, chi, da perfetto tecnico industriale prossimo al diploma, creava una centralina battezzata SM-Touch capace di misurare e segnalare la velocità, il numero di giri del motore, la temperatura ambiente e la tensione della batteria di un motore di un’automobile. Il display con l’ora, la data e il giorno; segnalazione di eventuali anomalie: mancanza d’olio e carburante, luci spente o batteria scarica. Il tutto in un alloggiamento autoprodotto con stampante 3D. “Prof durante il lockdown ho passato il tempo a realizzare questo”

 Per non parlare poi del collega Vittorio Del Colle che mi mandava le foto della sua mano robotica,

finalmente funzionante. E’ proprio in caso di dire che la passione per la robotica è simile a quella per una squadra di calcio il cui inno la definisce “una malattia che non va più via”.

Inutile descrivere le emozioni nel vedere in video queste cose.

Non tutto è dunque andato perduto in quel tempo sospeso.

Forse è stato più semplicemente un tempo diverso, dove ognuno a suo modo e nei modi più congeniali è riuscito a non spezzare quel filo di emozioni vissute concretizzandole, anche questa volta, in utili artefatti, nello spirito pieno e completo della robotica educativa.

 

Prof.ssa Eleonora Converti

Animatore Digitale e

Docente di Sistemi Automatici presso ITIS “E. Fermi” Castrovillari

0
0
0
s2sdefault

Argomento