Periodico delle Tecnologie dell'Informazione e della
Comunicazione per l'Istruzione e la Formazione
A+ A A-

PROBLEM SOLVING, PENSIERO COMPUTAZIONALE E ROBOTICA: COMPETENZE CHIAVE PER IL LAVORO DEL FUTURO di Eleonora Converti*

Abstract - Pensiero computazionale, problem solving e robotica sono termini sempre più presenti nel dibattito scolastico già da alcuni anni, perché l’obiettivo della scuola è quello di fornire ai giovani strumenti validi per affrontare positivamente l’incertezza e la mutevolezza degli scenari sociali e professionali presenti e futuri.

docente di Sistemi Automatici e Animatore Digitale presso l’ITIS “E.Fermi” di Castrovillari 

problem solving“Se dai un pesce ad un affamato lo sfami per un giorno, se gli insegni a pescare lo sfami per tutta la vita”. Da questo proverbio cinese trae ispirazione il principio base della teoria del Problem Solving, la metodologia didattica che, attraverso un ragionamento strutturato, guida verso la risoluzione di situazioni e problemi complessi mediante soluzioni inaspettate, nuove e creative.

La matematica e l’informatica sono le discipline che più facilmente si prestano all’applicazione di tale metodologia nella misura in cui si propongano problemi risolvibili non con la meccanica e ripetitiva applicazione di formule univoche, ma con la ricerca di soluzioni nuove e possibili. Spesso per una comprensione completa ed approfondita di eventi e processi complessi è richiesto un ‘approccio unitario del sapere e, dunque, il problem solving è un procedimento utilizzabile non soltanto per le materie scientifiche ma anche per quelle umanistiche.

È questo lo spirito che anima le competizioni di informatica e pensiero computazionale, denominate Olimpiadi di Problem Solving, promosse dal Ministero dell’Istruzione dal 2015 e rivolte agli studenti del primo e secondo ciclo delle scuole italiane. Oltre la tipologia di gare individuali, assai coinvolgente è quella a squadre che facilita la collaborazione, il confronto ed il lavoro di gruppo. Tra gli obiettivi fondamentali vi è stimolare la crescita delle competenze di problem solving e sottolineare l’importanza del pensiero computazionale come strategia vincente per affrontare i problemi, come metodo per ottenere la soluzione e come linguaggio universale per comunicare con gli altri. Le prove da affrontare consistono nella soluzione di esercizi che contengono:

  • regole e deduzioni: ossia, risolvibili con un insieme di regole da applicare in sequenza opportuna per dedurre un certo elemento incognito a partire da certi dati;
  • fatti e conclusioni: ossia, entità correlate da fatti, ciascuna con valori discreti che richiedono un ragionamento per arrivare a delle conclusioni;
  • grafi: ossia, insieme di oggetti, detti nodi, collegati da un insieme di segmenti, detti archi;
  • pianificazione: attraverso l’utilizzo di grafi, diagrammi e tabelle per trovare la dipendenza logica tra una serie di attività e la loro giusta successione temporale;
  • algoritmi di crittazione: con la sostituzione di ogni simbolo del messaggio in chiaro con quello dato da una tabella di conversione che trasforma ogni simbolo in un altro;
  • movimenti di un robot: da attivare con una sequenza su una tabella con celle numerate;
  • elementi di pseudolinguaggio: soluzioni di procedure eseguite seguendo passo passo delle istruzioni;
  • lettura di un testo in italiano: con risposte a domande di comprensione;
  • lettura di un problema in lingua inglese: comprensione del testo e ricerca delle soluzione.

Altrettanto interessante e coinvolgente è l’iniziativa avviata da oltre sei anni dal Ministero dell’Istruzione in collaborazione con il CINI (Consorzio Interuniversitario Nazionale per l’Informatica), denominata Programma il futuro per formare gli studenti attraverso l’uso di strumenti semplici e accessibili ai concetti base dell’Informatica e dell’educazione all’uso responsabile della tecnologia informatica. Il tutto è partito da un’esperienza avviata con successo negli USA nel 2013 e fortemente voluta e incoraggiata dall’allora Presidente Obama che invitava gli studenti americani a non acquistare videogiochi o scaricare app, ma a farli e disegnarli con le proprie mani. Il motto è: “non subire la tecnologia ma conoscerla e dominarla”. E non è solo una questione formativa quella di avvicinare i più piccoli in maniera consapevole ai dispositivi che scandiranno la loro vita di adolescenti ed adulti. Nel futuro prossimo 9 lavori su 10 richiederanno competenze digitali. Quasi la metà dei posti di lavoro sarà interamente svolta dalle macchine, milioni di posti andranno persi, ma ne cresceranno di nuovi altamente qualificati che richiederanno competenze articolate e complesse. Sarà importante un approccio creativo che permetta di analizzare un problema da diversi punti di vista cogliendone una giusta visione d’insieme ma al tempo stesso riconoscendone le diverse parti e le giuste relazioni fra esse. Ecco perché sarà sempre più importante possedere le competenze digitali insieme a quelle letterarie, linguistiche e umanistiche. Perché anche i più piccoli dovrebbero studiare l’informatica? Non certo perché tutti un domani lavoreranno in quell’ambito, ma perché il ragionamento procedurale, il pensiero computazionale, l’abitudine al problem solving, rappresentano, come dice Enrico Nardelli (responsabile del CINI), quel “ sedimento concettuale” che resta quando gli aspetti tecnici sono stati dimenticati e che sarà utile e prezioso per affrontare le nuove sfide del futuro.

Pensiero computazionale e problem solving sono, inoltre, capacità che si possono facilmente acquisire e rinforzare con la robotica educativa, l’ambiente di apprendimento di ispirazione costruttivista che consiste nel predisporre situazioni in cui gli studenti possono realizzare le proprie scoperte e l’insegnante condivide con gli studenti ciò che si apprende durante l’esperienza. Robot, rover ed automatismi vari sono così il risultato di una didattica del pensiero unita a quella del fare, in modo che i giovani possano essere sempre più protagonisti del loro futuro attraverso la capacità di padroneggiare gli strumenti e le tecnologie senza esserne soltanto dei semplici fruitori passivi. La robotica può definirsi una “scienza di sintesi” in cui sapere scientifico e sapere umanistico si fondono in modo unico. La robotica educativa, dunque, può rappresentare un ambiente di apprendimento per tutte le discipline, per una formazione completa e valida per le aspettative dei lavori del futuro.

Ma in un futuro prossimo pervaso dai robot e dall’intelligenza artificiale quale sarà il ruolo umano?

Forse sarebbe utile uscire dalla dicotomia delle interpretazioni sulla distruzione dei posti di lavoro e la creazione di nuovi da parte dell’automazione. Secondo David Autor occorre superare tanto la tesi pessimistica per la quale le nuove tecnologie aumentano la disoccupazione quanto quella ottimistica secondo cui i posti di lavoro saranno di più di quelli distrutti. Ciò che si ignora, infatti, è l’importanza della cosiddetta “conoscenza tacita”, ossia quella che deriva dall’esperienza. Infatti, non saranno mai sostituiti interamente ed efficacemente dalle macchine e dal software sia i lavori che richiedono conoscenze complesse e elevate abilità intellettive, sia quelli che richiedono adattamento, manualità e creatività. Certo la sfida è già da adesso ben ardua se si pensa a quanto le macchine si stiano avvicinando alla “conoscenza tacita” con gli studi sul “deep learning” e su come apprendere dagli esempi, accumulando conoscenza dall’esperienza.

La soluzione forse consiste nell’essere preparati in tanti e ben formati nell’affrontare in maniera sistemica la complessità dei problemi e le trasformazioni del mondo del lavoro. Tali trasformazioni richiedono interventi decisi e compatti da parte non soltanto degli addetti ai lavori ma anche di coloro che, in ambito politico e sociale, dovranno adoperarsi per abbattere le possibili conseguenze negative di una società ipertecnologica (il divario di genere, le diseguaglianze sociali, l’alienazione del controllo dei ritmi di lavoro attraverso un algoritmo), contribuendo al miglioramento della qualità della vita di tutti e di un benessere diffuso.

 

Eleonora Converti, docente di Sistemi Automatici e Animatore Digitale presso l’ITIS “E.Fermi” di Castrovillari

0
0
0
s2sdefault

DEEPFAKE, UNA NARRAZIONE MISTIFICATA DELLA REALTA' di Eleonora Converti

Deepfake, una narrazione mistificata della realtà

di Eleonora Converti[*]

Abstract - Cosa sono le deepfakes? Come si realizzano? Possono definirsi il “lato oscuro” delle fakenews? Uno sguardo attento al fenomeno dei video manipolati per creare scene iperrealistiche.

Un anno fa una popolarissima trasmissione di Canale 5, Striscia la Notizia, trasmetteva un fuori onda che mostrava Matteo Renzi criticare in maniera “colorita” alcuni ex colleghi di partito e altri membri del governo Conte. Si trattava di una deepfake realizzata sovrapponendo al corpo di un imitatore il volto di Matteo Renzi e facendo sembrare che fosse davvero lui. Era il settembre del 2019 e solo allora in Italia il dibattito su questa tipologia di fake news diveniva virale, facendo scoprire che già da tempo in tutto il mondo “accadevano” eventi analoghi. Video artificiali manipolati ed alterati per creare delle scene iperrealistiche indistinguibili dalla realtà. Così Putin dichiarava guerra alla Cina, Nancy Pelosi ubriaca pronunciava un discorso in pubblico, Scarlet Johansson era involontaria protagonista di film porno, per non parlare degli innumerevoli falsi con Nicolas Cage e Tom Cruise.

Ma se le vittime destinate sembrerebbero finora essere personaggi noti e pubblici non c’è molto da stare tranquilli. Fa riflettere il tono rassegnato della dichiarazione di Scarlet Johansson : “Combattere contro le deepfake che utilizzano il mio volto è una causa persa. E’ solo questione di tempo, perché il problema riguardi chiunque”.

Ma cosa sono le deepfakes? Il termine coniato nel 2017 da un utente di Reddit, sito internet di social news, è usato per indicare brevi filmati realizzati utilizzando la tecnica del deep learning, quella branca dell’Intelligenza Artificiale che studia e realizza gli algoritmi che simulano il funzionamento del nostro cervello attraverso le reti neuronali artificiali.

Un uso innocuo e, per certi versi, anche simpatico di questi software consiste nell’utilizzo delle reti neuronali per codificare e decodificare un segnale proveniente da un’immagine al fine di migliorarne la qualità.

Figura 1-Immagine dal blog di Alan Zucconi

Nel diagramma di sopra è mostrata la tecnica di compressione e decompressione di un immagine. Prendiamo una faccia, la passiamo in un encoder ottenendo una faccia latente, il vettore di base, che passando attraverso un decoder viene ricostruita in maniera più definita rispetto all’originale. E’ la tecnica su cui si basa FaceApp la nota applicazione per dispositivi iOS e Android creata dalla società Russa Wireless Lab per divertire chi può vedere invecchiare o ringiovanire il proprio volto. Il Codacon, comunque, ha rilevato forti dubbi in merito al trattamento dei dati personali degli utenti avviando un’indagine. La società di Pietroburgo sostiene che i dati vengono conservati in un Cloud solo per 48 ore per poi essere cancellati. Tempo sufficiente per farne entrare in possesso chi non dovrebbe?

Ma torniamo alle Deepfake e vediamo come la cose diventano ancora più serie.

Figura 2-Immagine dal blog di Alan Zucconi

In pratica encoder e decoder vengono disaccoppiati come nella figura di sopra. Da un lato un encoder costruisce la faccia A, dall’altro un encoder costruisce la faccia B. Ma i rispettivi vettori latenti vengono scambiati. Si realizza così il cambiamento delle facce le cui espressioni però rimangono nella faccia latente. Ciò significa generare un volto per il soggetto B con la stessa espressione e orientamento del soggetto A. Ecco come realizzare una simulazione della realtà e rivoluzionare il concetto di “reale”.

Diverte ed affascina la tecnica di far parlare Salvator Dalì, di far sorridere la Gioconda o far fare l’occhiolino a Leonardo, ma quando Nancy Pelosi appare ubriaca o un falso Obama parla di concetti ben lontani dalla sua indole, le cose cambiano. Passano poche ore prima delle smentite, ma quel lasso di tempo è più che sufficiente perché quel video diventi virale e venga distribuito, perché qualcuno accolga favorevolmente quella rappresentazione mistificata della realtà in quanto in linea con le proprie convinzioni che trascendono da qualunque evidenza documentale. Ci sarà sempre chi tende a prendere dalla realtà le parti che più interessano perché piacciono, che si lascerà trasportare in un vortice di allucinazione condivisa che porta a non credere nella scienza ma ai pregiudizi.

Quali le possibili soluzioni per contrastare il potere subdolo delle deepfake di innalzare il livello di rischio e far sembrare realistico qualsiasi messaggio?

Alcuni software sono in grado di analizzare velocità e frequenza con cui vengono chiusi gli occhi in un volto deepfake o riconoscono la mancanza di nitidezza di un’immagine quando gli occhi non fissano bene la telecamera. Tutto inutile. I software delle deepfake non hanno tardato ad adeguarsi e migliorarsi.

Si sta pensando alla sistemazione stringente di una normativa, forse l’unica efficacemente percorribile. ll 2 luglio 2019 lo stato americano della Virginia ha approvato la prima legge americana contro i deepfake ed il revenge porn.

In Italia il Garante per la protezione dei dati personali ha aperto un’istruttoria sul social network Telegram perché rende disponibile un software in grado di “spogliare” virtualmente una persona attraverso l’intelligenza artificiale deepfake. Ma le leggi sono ancora inadeguate a tutelare le vittime. E questo è un problema che riguarda tutti, non solo le vittime.

In attesa di un sempre più stringente perfezionamento delle norme , non ci resta che ricorrere ad un approccio del problema che incentivi la diffusione di un senso etico di produzione del software così come della tecnologia in generale. Paolo Benanti nel riferirsi all’etica della tecnologia conia un nuovo termine, l’algoretica (sintesi tra algoritmo ed etica) e sostiene che “La dimensione etica è quella sfida che vuole prendere sul serio il potere trasformativo dell’Intelligenza Artificiale ed orientare questo progresso nell’ordine dello sviluppo”.

 

[*] Docente di Sistemi Automatici e Animatore Digitale - ITIS “E.Fermi” Castrovillari

0
0
0
s2sdefault

Chirurgia robotica: Da Vinci® XI HD - ultima frontiera mini-invasiva

Abstract - Un approccio, tecnologicamente avanzato, che consente di praticare un intervento chirurgico, manovrando a distanza un robot, che riproduce il gesto chirurgico con altissimi livelli di accuratezza.

 

L’avvento della robotica e dell’intelligenza artificiale in sala operatoria, ha determinato, specie nell’ultimo decennio, una vera e propria rivoluzione della chirurgia tradizionale, consentendo di potenziare le tecniche laparoscopiche mininvasive, con un particolare tipo di pratica chirurgica, che rappresenta l’ultima frontiera della chirurgia di precisione: la chirurgia robotica o Robotic Assisted Surgery.

Si tratta di un approccio tecnologicamente avanzato, che permette all'operatore di praticare un intervento chirurgico, manovrando a distanza un robot, capace di riprodurre e miniaturizzare i movimenti della mano umana all’interno delle cavità corporee, con innumerevoli benefici pre, intra, e post-operatori, sia per il paziente che dal punto di vista clinico.

Attualmente l’unica tecnologia disponibile per accedere ad una reale chirurgia robotica è rappresentata dal sistema robotico Da Vinci, nome volto a celebrare lo scienziato italiano, i cui studi sull’anatomia effettuati nel 1400 possono essere considerati alla base della progettazione del primo robot conosciuto della Storia.

La  prima versione del Robot Da Vinci, come sistema robotico per la chirurgia, è stata lanciata sul mercato nel 1999 dalla Intuitive Surgical Inc., azienda leader mondiale nella tecnologia della chirurgia robotica mininvasiva, con approvazione da parte della FDA nell’anno successivo per la chirurgia generale e più tardi anche per la chirurgia toracica, cardiaca, vascolare, urologica, ginecologica e otorinolaringoiatrica. Nell’arco di 15 anni la Intuitive Surgical Inc. ha ulteriormente potenziato la tecnologia del Da Vinci, fino ad arrivare a un modello evoluto di quarta generazione nel 2014: il  Da Vinci® XI HD.

 

Da Vinci® XI HD: com’è fatto?

 

Il Da Vinci® XI HD costituisce la piattaforma più evoluta per la chirurgia robotica mininvasiva, in grado di offrire una visione tridimensionale immersiva del campo operatorio potenziando fino a 10 volte la normale visione dell’occhio umano, oltre a favorire una maggiore facilità di accesso alle anatomie più complesse, una precisione superiore e una diminuzione del tempo di degenza, degli effetti collaterali e del rischio clinico. Il robot non è autonomo nell’esecuzione delle operazioni, ma è sempre guidato da un chirurgo, che fisicamente presiede una workstation lontano dal campo operatorio, dotata di monitor e comandi, dalla quale muove i bracci del robot, collegati agli strumenti endoscopici, che vengono introdotti nelle cavità corporee attraverso piccole incisioni.

Il sistema chirurgico Da Vinci® XI HD è costituito da tre componenti principali:

 

  • Console chirurgica: costituisce il centro di controllo, posizionato lontano dal campo sterile, attraverso cui il chirurgo opera per mezzo di due manipolatori, simili a joystick, e di pedali che guidano la strumentazione, osservando il campo operatorio tramite il monitor dell'endoscopio 3D.

 

  • Carrello paziente: costituisce l’unità operativa del sistema da Vinci e si compone di quattro bracci mobili e interscambiabili, supportati da un sistema di fibre ottiche. Sui bracci dei robot sono installati gli strumenti Endowrist, dotati di un polso in grado di compiere una rotazione di quasi 360°, nonché progettati con sette gradi di movimento, raggio di gran lunga superiore rispetto a quello del polso umano.

 

  • Carrello visione: contiene l'unità centrale di elaborazione dell’immagine, oltre ad essere sede delle principali fonti di energia per il controllo della emostasi.

 

 Applicazioni chirurgiche e vantaggi

 

Benché la chirurgia robotica trovi impiego in diversi ambiti di applicazione chirurgica, la branca che più di tutte attualmente beneficia di tale pratica innovativa è l’urologia, specie quella oncologica. Grazie alla visione tridimensionale ad alta definizione e alla possibilità di utilizzare strumenti miniaturizzati con un’ampia gamma di movimenti, è possibile eseguire operazioni molto delicate con estrema precisione, tutelando le fibre nervose che controllano la continenza e l’erezione. In tale ambito, una delle procedure più eseguite con il robot da Vinci è la prostatectomia radicale, che prevede la rimozione totale di prostata, vescicole seminali e linfonodi loco-regionali in pazienti affetti da cancro alla prostata.

Per quanto riguarda più in generale i vantaggi della chirurgia robotica, essi sono significativi sia per il paziente, grazie alle piccole incisioni e alla riduzione del traumatismo tissutale, con conseguente minor sanguinamento, riduzione del dolore post-operatorio e dei tempi di recupero delle normali attività, sia dal punto di vista clinico, per l’aumento della precisione delle prestazioni, che per la riduzione del rischio. Per il chirurgo, inoltre, è vantaggiosa la posizione più comoda, rispetto a quella assunta di solito durante l’operazione chirurgica, con una notevole riduzione della tensione muscolare, aspetto fondamentale, soprattutto durante interventi molto lunghi, che consente di mantenere un’attenzione maggiore durante tutte le fasi della procedura.

 

Chirurgia robotica in Italia

 

Ad oggi in Italia risultano installate ben oltre 100 piattaforme robotiche Da Vinci, con la presenza di almeno una postazione in ciascuna regione e maggiore prevalenza nel Centro-Nord, numero che ha consentito al nostro Paese di attestarsi come leader europeo nell’utilizzo della chirurgia robotica. Sul podio europeo, al fianco del nostro Paese, vi è anche la Francia, seguita da Germania e Gran Bretagna. Mentre nel mondo, a precederla,  vi sono soltanto gli Stati Uniti e il Giappone. Per quanto concerne la frequenza con cui si ricorre alla chirurgia robotica, osservando l’andamento dei casi di utilizzo negli ultimi anni, notiamo una notevole crescita, basti pensare che dal 2013, anno in cui si erano registrati circa 10.000 interventi, il numero si è poi raddoppiato nel 2018, continuando a crescere con costanza fino ad oggi. Le applicazioni in ambito urologico costituiscono circa il 70 % dei casi registrati; a seguire, con percentuali più basse, troviamo la chirurgia generale e toracica, la ginecologia e l’otorinolaringoiatria.

In Italia la tecnologia Da Vinci è distribuita da Ab medica s.p.a., azienda italiana  leader nella produzione e nella distribuzione di tecnologie medicali avanzate, nonché di sistemi di chirurgia robotica.

 

Fonti e approfondimenti:

        https://www.abmedica.it

  • PubMed Central®

        https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6193435/

 

 

 Cristiana Rizzuto

Ingegnere Biomedico di Presidio presso Ospedale Maggiore di Bologna

0
0
0
s2sdefault

L’EVOLUZIONE DELLE IA: DAI PRIMI ROBOTS ALLA MECCANICA QUANTISTICA di Katia Canonico

ABSTRACT:

Quali effetti avrà l’evoluzione dell’automazione in futuro? Si creeranno nuovi posti di lavoro o verremo soppiantati dai robots? Quale impatto ha avuto l’interpretazione di Copenaghen dopo la conferenza di Solvay del 1927? Un oggetto macroscopico può effettivamente ritrovarsi in uno stato di correlazione quantistica? Dal principio di indeterminazione di Heisenberg secondo cui non è possibile determinare contemporaneamente la posizione e la velocità delle particelle subatomiche, ai fenomeni quali l’entanglement quantistico che porta a conseguenze logiche misteriose come il paradosso del gatto di Schrödinger, alla base della crittografia quantistica e del Quantum Computing.

 

L’EVOLUZIONE DELLE IA: DAI PRIMI ROBOTS ALLA MECCANICA QUANTISTICA

di Katia Canonico

 

Nel 2017 ebbi l’occasione di partecipare alla Robocup JR rescue line. Allora il nostro team dell’Istituto Tecnico Industriale Statale “Enrico Fermi” di Castrovillari, utilizzò una scheda Arduino Mega 2560, che fa uso di un ATmega2560 ed è un’evoluzione dell’Arduino Mega, collegata alla scheda Arduino UNO + EV SHIELD tramite comunicazione I2C in cui ricopriva il ruolo di “Master”, mentre l’Arduino Uno + EV SHIELD quella di “Slave”. A tal proposito furono redatti due programmi software: uno per il Master e uno per lo Slave.

La comunicazione I2C è uno dei metodi che permettono di comunicare con altri dispositivi utilizzando come canale di trasmissione dati i protocolli seriali e ce ne servimmo in quanto l’uso della EV SHIELD sulla scheda Adafruit causava contrasti nei motori, dovuti all’identicità tra le variabili delle librerie.

La libreria Wire dispone di tutte le funzioni necessarie alla realizzazione Master-Slave tra due schede Arduino.

 

Il bus I2C, basandosi su due fili, non permette la comunicazione contemporanea tra Master e Slave. Lo scambio dati deve essere gestito dal Master tramite gli indirizzi (univoci) degli Slave. Il flusso può essere sintetizzato in questo modo:

  1. Il Master invia sul bus un bit di start
  2. Il Master invia sul bus l’indirizzo dello slave con cui vuole comunicare
  3. Il Master decide se scrivere o leggere dal dispositivo
  4. Lo Slave legge o scrive in base alla richiesta del Master

 

Ma come nasce la robotica?

Nel 1919, uno degli allievi di Freud, lo psicanalista Viktor Tausk, pubblicò un articolo intitolato “Sulla genesi della macchina influenzante nella schizofrenia”. In questo studio Tausk notava come fosse comune, a molti pazienti schizofrenici, la convinzione che esistesse una macchina elettrica capace di governare i destini degli uomini. Tausk arrivò ad elencare almeno due caratteristiche ricorrenti di questa macchina:

  • la macchina invia sempre ai pazienti delle immagini con cui li influenza e li condiziona;
  • la macchina produce e ruba i pensieri dei malati e con dei raggi elettrici li suggestiona.

Il termine robot vede la luce nel 1920, in un dramma distopico ceco “R.U.R.”, dove i lavoratori vengono sostituiti e sterminati da androidi efficienti. Nel 1939 Electro (figura a lato), uno scheletro di ingranaggi in ferro con un motore avvolto nell’alluminio, crea grande scalpore all’esposizione universale di New York: in questi anni la narrativa dipinge i robots come utili aiutanti o macchine malvagie che annientano i loro padroni.

In un film degli anni ’40, il robot maggiordomo Roll-Oh soddisfa tutte le esigenze di una casalinga.

Nel 1950 lo scrittore di fantascienza Isaac Asimov enuncia un codice morale dei robots:

  • Un robot non può far del male ad un essere umano;
  • Deve obbedire agli ordini ricevuti dal personale qualificato, a meno che non violino la regola numero uno;
  • Un robot deve proteggere la propria esistenza, a patto di non violare la regola numero uno o due.

Nel 1961 la General Motors inserisce bracci robotici nella catena di montaggio per affrontare la crescente domanda di automobili in America. Nel 1966 la Nokia produce i primi bracci robotici per la Scandinavia e l’Europa dell’Est, nel 1969 la Kawasaki li fabbrica per il mercato asiatico, nel 1970 seguono BMW, Mercedes-Benz, British Leyland, Fiat che li impiegano nelle proprie fabbriche. Ma è il Giappone a sfruttare al massimo questa nuova tecnologia: nel 1981, infatti, nelle fabbriche di auto vengono impiegati 6000 robots a fronte dei 370 del Regno Unito (per questo, negli anni’80, l’industria automobilistica britannica è arretrata, incapace di competere con le auto più economiche importate dal Giappone). Oggigiorno, i tecnici giapponesi impiegano l’IA per generare robots più amichevoli e sensibili, come Asimo, sviluppato da Honda nel 2000. Il motivo è radicato nella religione: secondo gli antichi insegnamenti shintoisti, gli oggetti prodotti dall’uomo possono avere un’anima umana. Nel 2013, il robot umanoide di Toyota Kirobo, viene mandato sulla stazione spaziale internazionale per fare compagnia all’astronauta: i due trascorrono 18 mesi in orbita insieme. Sebbene i robots non provino sentimenti, essi vengono impiegati per sostegno emotivo; il Giappone è in testa, con 300.000 robots da compagnia: possono aiutare i bambini autistici a riconoscere e ad esprimere reazioni emotive, aiutano nell’assistenza agli anziani, insegnano e giocano con i bambini, rimpiazzano i genitori assenti e le mogli umane (dal 2016, più di 3700 uomini hanno scelto di sposare ologrammi robotici).

Nel 2020 condividiamo la Terra con 9 milioni di robots: circa 3 milioni lavorano in fabbrica, ma li troviamo anche sulle strade sotto forma di automobili a guida autonoma. Eppure il 72% degli americani teme che i robots porteranno via il lavoro agli umani. In una provincia cinese 2 milioni di lavoratori sono stati rimpiazzati dai robots in soli 2 anni. I robots sono presenti persino nei nostri ospedali: circa 5000 bracci chirurgici Da Vinci operano pazienti in tutto il mondo, nonostante il 69% degli americani si sente a disagio con i chirurghi robotizzati. Secondo Shoshana Zuboff, i nostri dati sono diventati il “nuovo petrolio”: l’intelligenza artificiale e la macchina algoritmica raccolgono i dati che ciascuno di noi lascia tramite i nostri comportamenti online.

La parola cognitive computing, cioè sistemi cognitivi capaci di lavorare deriva dall’IBM, che utilizzò questo termine, dal punto di vista commerciale, nel 2013 quando iniziò a pubblicizzare Watson, un insieme di servizi di intelligenza artificiale che già nel 2011 avevano battuto gli esseri umani in un gioco televisivo chiamato Jeopardy!. Nello stesso anno, nascevano i primi sintetizzatori vocali come Siri, che utilizzano tecnologie di reti neurali. Le reti neurali sono strutture simili a quelle del nostro cervello sebbene i “neuroni” delle reti neurali si dispongano in layers (o “livelli”). I neuroni del primo livello sono detti neuroni di input , mentre i neuroni dell’ultimo livello sono i neuroni di output; fra i neuroni di input e quelli di output sono presenti livelli cosiddetti “nascosti”: ogni neurone di ogni livello è collegato a tutti i neuroni del livello prima e a tutti i neuroni del livello dopo. Inoltre ogni collegamento ha a sua volta un numero, che viene chiamato peso, che rappresenta quanto forte o quanto debole sia la connessione fra quei due neuroni. Il primo modello di neurone artificiale venne progettato nel 1943 da Warren Sturgis McCulloch e Walter Pitts. Nel 2015, AlphaGo, progetto nato per studiare le reti neurali profonde, sconfisse il campione europeo di Go Fan Hui; nel 2016 si aggiudicò l’incontro contro uno tra i più forti giocatori mondiali di go, il sudcoreano Lee Sedol.

Ma cos’è l’intelligenza? E come è possibile determinare se una macchina è più o meno intelligente? Blaise Pascal (1623-1662) sosteneva che la nostra intelligenza è estremamente limitata. Il filosofo Douglas Hofstader in Gödel, Escher, Bach, scrive: ”Nessuno sa dove sia la linea di confine fra comportamento non intelligente e comportamento intelligente; di fatto, forse, non ha senso pensare che esista un confine netto. Ma certamente esistono delle caratteristiche essenziali dell’intelligenza: reagire in modo molto flessibile alle varie situazioni; trarre vantaggio da circostanze fortuite; capire messaggi contraddittori oppure ambigui; riconoscere l’importanza relativa di diversi elementi in una situazione; trovare i punti di somiglianza fra diverse situazioni, nonostante esse siano differenti; trovare i punti di differenza fra situazioni, nonostante esse siano simili; creare nuovi concetti prendendo vecchi concetti e mettendoli insieme in nuovi modi, inventare idee che siano nuove.” Già Ada Lovelace (1815-1852), figlia del poeta inglese Lord Byron, prefigurò il concetto di intelligenza artificiale, sebbene non ritenesse che la macchina potesse divenire pensante come gli esseri umani. Ada descrisse un algoritmo per la macchina analitica di Babbage (che si ispirò al telaio di Jacquard) per calcolare i numeri di Bernoulli: algoritmo che oggi viene generalmente riconosciuto come il primo programma informatico della storia.

Per determinare se una macchina sia in grado o meno di esibire un comportamento intelligente, si fa riferimento ad un criterio suggerito dal matematico inglese Alan Turing nel suo articolo Computer machinery and intelligence e noto come “test di Turing”. Per questo test, Turing prese spunto dal “gioco dell’imitazione” in cui sono presenti tre partecipanti: un uomo, una donna e una terza persona. Quest’ultima è separata dalle altre e deve stabilire, tramite una serie di domande, qual è l’uomo e quale la donna. A loro volta l’uomo ha il compito di ingannare e portare la terza persona a fare un’identificazione errata mentre la donna ha il compito di aiutarla. Se la percentuale di volte in cui la terza persona indovina chi sia l’uomo e chi sia la donna è simile prima e dopo la sostituzione dell’uomo con la macchina, allora la macchina dovrebbe essere considerata intelligente in quanto indistinguibile da un essere umano.

Per macchina intelligente Turing ne intendeva una in grado di concatenare ed esprimere pensieri non privi di significato. Nell’articolo, infatti, riprende il Cogito cartesiano secondo la quale l’uomo differisce dagli animali: gli animali sono res extensa, mentre l’uomo deve essere una res cogitans fatta di pensiero. Dagli anni ’70 fino agli anni ’90 infatti, l’intelligenza artificiale è stata basata sulla logica e cioè sulla capacità di emulare il nostro modo di ragionare (sia nella deduzione, che nell’induzione, che nella rappresentazione della conoscenza) a partire da John McCarthy, considerato il padre della logica computazionale, che inventò il linguaggio di programmazione Lisp che gli valse il premio Turing nel 1971. Sappiamo però che la nostra intelligenza non si limita soltanto alla logica ma, stando agli psicologi, possediamo tanti tipi di intelligenze (logico-matematica, tattile etc.); inoltre secondo il premio Nobel della medicina Eric Kandel la nostra intelligenza deriva certamente da una parte innata ma soprattutto dall’esperienza. Gli attuali algoritmi di intelligenza artificiale si sono evoluti sempre di più in quello che si chiama machine learning (o apprendimento automatico) e il deep learning (apprendimento profondo). Con machine learning si intendono quegli algoritmi che non sono stati codificati per un singolo problema ma che attraverso i dati ottimizzano i propri parametri (apprendono, appunto) e possono essere usati per diversi scopi. Per questi motivi, dal 2018 la Comunità europea ha dato un’altra definizione di intelligenza artificiale che non si limita soltanto all’emulazione prevista dal test di Turing ma che al contrario afferma che un’intelligenza artificiale deve occuparsi di sistemi che tendenzialmente fanno tre cose: hanno un comportamento intelligente, riescono ad estrarre informazioni dall’ambiente tramite sensori (capacità visiva, olfattiva, di riconoscimento del linguaggio, lavorano attraverso l’Internet of Things) e riescono ad intraprendere azioni (l’intelligenza artificiale è sicuramente software che è embodied in sistemi hardware che possono essere robots, auto, droni, aerei etc.). In questo momento le IA non possiedono un certo grado di autonomia per compiti specifici ma sono sottoposti a controllo da parte dell’essere umano: questo perché in Europa crediamo fortemente nell’Human-Centered AI, ovvero l’intelligenza artificiale centrata sull’uomo, in quanto l’IA non nasce semplicemente per rispondere alle interazioni con l’essere umano ma nasce soprattutto per essere trasparente, compresa e garantita dall’essere umano (si parla di intelligenza artificiale eXplainable).  E cosa succederà quando l’intelligenza artificiale ci supererà in astuzia? Questo ipotetico punto di non ritorno è conosciuto come singolarità.

Nel maggio 1997, il computer di IBM Deep Blue, batté il campione mondiale di scacchi Garry Kasparov. Gli ingegneri dell’IBM programmarono Deep Blue affinché aspettasse alcuni minuti dopo aver concluso i calcoli, in modo tale da dare l’impressione che la macchina fosse incerta sul da farsi. Ciò fece abbassare la guardia a Kasparov, che dopo aver vinto la prima partita abbandonò la seconda, mentre la terza, la quarta e la quinta si conclusero con un pareggio: Deep Blue sconfisse Kasparov per 3 ½ contro 2 ½ . Il 4 Luglio 1997 il robot a guida autonoma si spinge lì dove nessun essere umano era mai arrivato: Marte. Grazie all’IA, Sojourner esplora per tre mesi il suolo di Marte, raccogliendo campioni e inviando 550 fotografie. Rover simili si rivelano indispensabili anche sulla Terra: sono utili a disinnescare ordigni nelle zone di guerra e salvare vite dal Kosovo all’Afghanistan mentre in Ruanda i droni trasportano sangue per trasfusioni in luoghi difficili da raggiungere. Da allora i computer divennero sempre più intelligenti grazie alla legge di Moore (secondo la quale il numero dei transistors raddoppia ogni 2 anni, aumentando in modo esponenziale la loro velocità e capacità) che permette di integrare un numero sempre più grande di transistors su unità di superficie.

Eppure esistono alcune cose che gli attuali computer non sono in grado di fare, come ricostruire alcune tipologie di molecole per studiarle nella loro completezza: esse, difatti, richiederebbero un numero inimmaginabile di bits (nel caso della molecola della penicillina il numero di bits ammonterebbe a 10^86…per rappresentarla occorrerebbe un computer grande quanto l’intero universo!). Ma cosa accade se arriviamo al limite in cui non si possono fare transistors più piccoli dell’atomo? Qui entra in gioco la meccanica quantistica la cui natura stessa è oggetto di dibattito tra gli scienziati, che si stanno ancora interrogando su di essa per assicurarsi che sia la teoria che funziona per qualsiasi sistema, indipendente dalle sue misure (la stessa giunzione p-n dei transistors segue le leggi della meccanica quantistica!). La fisica quantistica descrive il mondo microscopico attraverso l’equazione di Schrödinger, la cui soluzione talvolta non è una sola, bensì possono coesistere più soluzioni cioè più funzioni di stato o funzioni d’onda: la soluzione, per un sistema quantistico, è una sovrapposizione di stati, ovvero la somma di tutti gli stati in cui il sistema potrebbe trovarsi simultaneamente. La meccanica quantistica è importante per le scoperte tecnologiche in quanto permette di realizzare un computer quantistico potente che contenga un numero di unità quantistiche (Qubit): per fare ciò bisogna fare in modo che questo sistema resti in uno stato di sovrapposizione che necessita di essere isolato in quanto estremamente delicato, chiamato coerenza. A tal proposito ci serviamo di alcuni refrigeratori atti a portare la parte ad una temperatura più bassa della temperatura dello spazio interstellare (nello spazio interstellare è presente ancora un rimasuglio della temperatura dell’esplosione del Big Bang).

Uno dei paradossi quantistici è il paradosso del Sorite (dal greco antico σωρίτης sōritēs aggettivo di σωρός sōros, che significa "mucchio") paradosso da cui scaturisce per esempio la "teoria degli insiemi fuzzy" cioè una teoria di classi con contorni indistinti. Generalmente attribuito al filosofo greco Eubulide di Mileto, stabilisce che dato un mucchio di sabbia, se eliminiamo un granello dal mucchio avremo ancora un mucchio. Eliminiamo poi un altro granello: è ancora un mucchio. Eliminiamo ancora un granello e poi ancora uno: il mucchio diventerà sempre più piccolo, finché rimarrà un solo granello di sabbia. In quale momento quel mucchio iniziale non è più un mucchio? Un paradosso ben conosciuto dai fisici in quanto gli oggetti macroscopici seguono le leggi della fisica classica, mentre i quanti seguono la meccanica quantistica. Ma se tutto è formato da particelle e tutte le particelle seguono la meccanica quantistica, allora non dovrebbe tutto quanto seguire la meccanica quantistica? Quanto grande può essere il mucchio affinché abbia ancora comportamenti quantistici? Possibile far comportare un corpo visibile ad occhio nudo come un quanto? Per rispondere a queste domande, il team di Aaron Douglas O’Connell ha costruito un chip minuscolo e lo ha posto in uno stato particolare: una volta che il chip era stato schermato dalla luce, sistemato in un contenitore a cui era stata tolta l’aria e raffreddato ad una temperatura prossima allo zero assoluto, il chip ha cominciato a vibrare e a non vibrare allo stesso tempo, una cosa che può accadere solo nella meccanica quantistica.

Katia Canonico

Ex Studentessa ITIS "E.Fermi" Castrovillari

Studentessa di Ingegneria Elettronica presso UNICAL

0
0
0
s2sdefault

Argomento