Intelligenza artificiale e nuove frontiere

Intelligenza artificiale, istruzione e disabilità

a cura di Giuseppe Sangeniti*

A pensare che un tempo i docenti escogitavano di tutto pur di non fare copiare i propri alunni da internet, dinnanzi al sopraggiungere dell’intelligenza artificiale, a confronto, tutto ciò appare ridicolo e senza senso. Negli ultimi anni, si fa un gran dibattere attorno al tema dell’intelligenza artificiale e del suo uso o abuso, a seconda dei punti di vista, anche in ambito didattico.

Favorevoli e contrari all’uso di tale supporto portano all’attenzione del grande pubblico dati e argomentate ricerche pur di far prevalere l’una o l’altra fazione. Di fronte ad un così controverso scenario, utile e quanto mai saggio, sembra essere la decisione di far nostro il pensiero di un grande filosofo quale Baruch Spinoza, secondo cui occorrerebbe «non ridere, non piangere né detestare ma (cerca solo di) capire», perché questo alla fine dei conti è il compito di un attento osservatore e bravo educatore.

intelligenza artificiale

In realtà, di intelligenza artificiale se ne è cominciato a parlare fin dalla comparsa delle prime macchine da calcolo: l’umanità non ha fatto altro che convivere con queste forme di intelligenza artificiale. Pensiamo alla capacità del nostro cellulare di riconoscere il nostro volto per esempio, oppure al semplice registro elettronico che quotidianamente utilizziamo nelle nostre aule. Apparentemente semplici operazioni che accompagnano la nostra vita quotidiana, ma nel loro complesso utili strumenti che ci rendono la vita più semplice e comoda.

Si comincia a parlare di intelligenza artificiale, dicevamo prima, già dal 1950 quando per la prima volta il geniale matematico inglese Alan Turing, stabilì che un algoritmo potesse essere definito intelligente se fosse stato in grado di imitare in maniera indistinguibile il comportamento umano. Si definiva intelligenza artificiale, quindi, la capacità di una macchina di eseguire le funzioni cognitive che associamo alle menti umane, come percepire, ragionare, apprendere, interagire con un ambiente, risolvere problemi. Tale definizione con il passare del tempo si è andata ampliando sempre di più fino ad arrivare, oggi, ad una nuova definizione a cura del Parlamento Europeo che definisce l’intelligenza artificiale come l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e persino esercitare la creatività.

Senza entrare troppo in articolati tecnicismi, si distinguono due livelli di intelligenza, quella rappresentata dalla chatbot, un software che simula ed elabora le conversazioni umane consentendo agli utenti di interagire per reperire delle informazioni o esporre un problema;  e un’altra molto più evoluta e conosciuta come intelligenza generativa, ovvero un tipo di intelligenza artificiale lanciata da OpenAI a novembre 2022 in grado di generare testi, immagini e altri tipi di media in risposta a delle domande stimolo poste da un essere umano. Per fare ciò basta iscriversi su openai.com e poi inserire l’informazione che si vuole ricercare. La risposta al quesito, che può essere di varia natura, è quasi immediata. 

Inutile dire che, sia l’una che l’altra, hanno modificato radicalmente l’esistenza degli esseri umani, in particolar modo quella delle persone con disabilità. Come ha avuto modo di affermare Gerard Quinn, relatore speciale delle Nazioni Unite sui diritti delle persone con disabilità, "le nuove tecnologie possono essere di enorme beneficio per le persone con disabilità e guidare la ricerca di un'uguaglianza inclusiva in un'ampia gamma di campi come l'occupazione, l'istruzione e la vita indipendente, ma ci sono tuttavia molti noti impatti discriminatori". Il principio di fondo è che le tecnologie, qualsiasi esse siano, fin dalle prime fasi di sviluppo e progettazione, devono prendere in considerazione le esigenze di tutti, indipendentemente dalla razza, dall’età e dalla condizione sociale. Anche le persone con disabilità devono poter trarre beneficio dalle soluzioni offerte dall’intelligenza artificiale. 

Grazie a queste particolari tecnologie è ormai possibile abbattere diverse barriere di accessibilità: pensiamo ad esempio alle tecnologie di computer vision a favore delle persone non vedenti o alle tecnologie di riconoscimento vocale e traduzione per le persone con problemi di udito; per non parlare poi di alcuni sistemi robotici in grado di aumentare e migliorare l’autonomia delle persone con mobilità ridotta. Nonostante questi primi passi però, non tutte le soluzioni esplorate rispondono del tutto positivamente con alcune forme di disabilità e questo accade perché, come ogni sistema di intelligenza artificiale, non sempre i dati di base sui quali sono sviluppate queste soluzioni prevedono anche campioni di persone con disabilità.

Nel mondo si calcolano più di un miliardo di persone che vive con una disabilità, un numero considerevole all’interno del quale è racchiuso un vitale contributo per l’intera società e la cui non presa in carico o la mancata loro inclusione potrebbe portare a dei grossi problemi in termini di occupazione e istruzione. In merito all’impiego dell’intelligenza artificiale su questa fascia di popolazione in particolare, l’OCSE ha individuato cinque principi da tenere in debita considerazione. In base a tali principi, per fare in modo che l’intelligenza artificiale possa rispondere ad ogni legittima esigenza di tutte le persone del pianeta, favorendo quindi una crescita inclusiva, sviluppo sostenibile e benessere, è necessario assicurarsi anche che le persone con disabilità siano veramente coinvolte nei processi di innovazione tecnologica e che la loro presenza sia assicurata tra i professionisti dell’informatica. 

A tal proposito, il 19 maggio scorso vi è stata l’undicesima Giornata Mondiale della Sensibilizzazione sull’Accessibilità, un evento importante e incentrato sull’accesso e sull’inclusione digitale per oltre un miliardo di persone con disabilità. Al centro del forum, il tema dell’intelligenza artificiale e dei sui possibili effetti, positivi e negativi, sulle persone con disabilità sensoriali e cognitive. Proprio il Forum Europeo sulla Disabilità (EFD), in un recente rapporto sulle tecnologie emergenti, ha elencato diverse e valide esperienze a favore delle persone con disabilità, ma ha anche raccomandato massima cautela in quanto «molte di quelle tecnologie sono ancora nelle prime fasi di sviluppo e necessitano certamente di ulteriori perfezionamenti per consentire alle persone con disabilità di realizzare il loro pieno potenziale come cittadini e cittadine indipendenti nelle loro società».

Questa eccessiva euforia e frenesia nei confronti della digitalizzazione, ha sottolineato l’EFD, può rafforzare vecchie barriere e crearne addirittura di nuove se non si assume un approccio progettuale accessibile per tutti. Si pensi per un attimo alle persone con sindrome di Down e al rischio che un sistema di riconoscimento vocale possa non essere in grado di comprendere un loro comando; oppure a sistemi di intelligenza artificiale non in grado di assistere un conducente con disabilità in quanto basati su algoritmi o modelli riconducibili a persone normodotate. Dunque il rischio c’è e necessita di un intervento anche normativo al fine di regolamentare il campo di azione e la diffusione di tecnologie basate sull’intelligenza artificiale poco inclusive. Anche la scarsa precisione sottesa a tali dispositivi è stata oggetto di critiche. Se pensiamo al progetto di OpenAI di cui sopra, occorre precisare che la ChatGPT ha un limite cronologico che ferma la conoscenza temporale dell’intelligenza artificiale a fatti precedenti al 2021. Un aspetto da non trascurare, ma sul quale si stanno registrando notevoli miglioramenti.

Per quanto concerne ancora il settore dell’istruzione, il rischio è sempre quello di commettere errori e peccare di superficialità, alimentando confusione e fake news. Non è un caso che diverse scuole nello Stato di New York ne hanno vietato l’uso anche per il proliferare di testi non originali in quanto prodotti dall’intelligenza artificiale. 

Ciò detto, il presente contributo dell’intelligenza artificiale non vuole certo demonizzarne l’uso. Al contrario, la finalità dello stesso è quella di cercare di capire come sfruttarne al massimo il suo potenziale anche in ambito educativo. In un’ottica inclusiva, tale forma di intelligenza può essere usata per esempio per creare programmi personalizzati a favore di alunni con DSA, per creare esercitazioni o come supporto didattico per quegli alunni che vivono in contesti familiari poveri e privi di sufficienti stimoli culturali. Vari e variegati sono i complessi contesti dove trovare applicazione. 

In conclusione, se da un lato è vero che l’intelligenza artificiale avrà innegabilmente, a lungo andare, delle ripercussioni positive sull’insegnamento, sull’apprendimento e sui processi di valutazione, dall’altro lato è fondamentale approcciarsi alla complessa tematica dell’IA attraverso criteri desunti da un’etica che pone il bene della persona come criterio ultimo per la valutazione di una sua qualunque applicazione ed uso. Una progettazione inadeguata ed educatori non formati e poco consapevoli possono provocare delle conseguenze dannose e trasformare tale opportunità in una pesante sconfitta che andrà ad influire sulle future generazioni.

*dirigente scolastico dell’I.C. “A. Vespucci” di Vibo Valentia

RIFERIMENTI

logo icted

ICTEDMAGAZINE

Information Communicatio
Technologies Education Magazine

Registrazione al n.157 del Registro Stam­pa presso il Tribunale di Catanzaro del 27/09/2004

Rivista trimestrale  

Direttore responsabile/Editore-responsabile intellettuale

Luigi A. Macrì