I.C.T. News

IL PENTITO

IL PENTITO

a cura di Paolo Preianò

In questo articolo parleremo di uno dei tanti pentiti moderni, quello che, probabilmente, ha generato maggiore clamore vista la sua importanza nel campo dell’intelligenza artificiale. Geoffrey Hinton, affinatore esperto delle reti neurali, ha recentemente ammesso di aver dato il proprio contributo allo sviluppo di una tecnologia che potrebbe sfuggire di mano se non dovessero essere prese delle contromisure immediate.

Che sentimento è il pentimento? In Totem e tabù Freud lo collegava direttamente ai principi di colpevolezza e desiderio di espiazione, come se il pentito fosse colui che desiderava ardentemente ammettere le proprie colpe ed essere punito per esse, espiare il tutto in una delle forme che potesse arrecargli una qualche forma di sofferenza.

Se correttamente canalizzato può essere un sentimento nobile, che spesso ben si accosta al fedifrago, al giovanotto che ne commette una delle sue o al malavitoso che, appunto, ammette le proprie colpe e desidera collaborare con lo Stato per ricevere quella punizione espiatoria.

Volendo fare un ragionamento un po’ più profondo, c’è un quid che scaturisce quasi sempre dal pentimento stesso ed è il rischio. Pensiamoci bene: confessare all’amato/a può avere conseguenze anche disastrose per il rapporto sentimentale, ammettere di aver violato una delle regole famigliari e dei buoni costumi idem e lo stesso dicasi per un pentito del terzo esempio. Ragion per cui, potremmo già associare all’atto del pentimento stesso un coraggio quasi sovraumano, una forza interiore che supera quella della paura degli strascichi e che decide di straripare per seppellire definitivamente il senso di colpa. Quando poi è quest’ultimo ad avere il sopravvento, la situazione potrebbe giungere a dei limiti non accettabili. Ecco perché ci sono delle confessioni che hanno più valore di altre e quella che racconterò in questo articolo è una di esse perché coinvolge un uomo di alto spicco, una presenza latente nella nostra vita quotidiana, talmente velata che, sono certo, il suo nome nulla dirà ai più. Geoffrey Hinton, mai sentito nominare? Per il momento ci interessa sapere che costui, sedutosi davanti ad un intervistatore, si pente. Si pente di aver partecipato proattivamente alla ricerca e allo sviluppo di soluzioni di intelligenza artificiale (è riconosciuto come uno degli acceleranti delle reti neurali) che hanno impattato in modo determinante nell’avanzamento della disciplina e nella sua oramai pervasività, a tratti devastante. Giusto per precisione diciamo qualcosa sulle reti neurali. Note anche col termine anglosassone Artificial neural network - ANN o Simulated Neural Network- SNN, sono considerate una fetta del machine learning e rappresentano il nucleo di tutti gli algoritmi di deep learning. Derivano la loro nomenclatura proprio dalla struttura del cervello umano, imitando in tutto e per tutto il modo in cui i neuroni biologici si inviano segnali. Una delle reti neurali più note è proprio l'algoritmo di ricerca di Google e fu una delle prime cose che mi spiegarono dettagliatamente al corso universitario di Intelligenza Artificiale. Ma torniamo a noi.

Il pentimento di un uomo del genere potrebbe sembrare un atteggiamento di facciata di chi, giunto all’età pensionabile, decide di vuotare il sacco dopo aver ottenuto dalla vita professionale il massimo profitto. Forse un po’ lo è davvero. Eppure, leggendo la sua intervista sul Corriere della Sera, mi è sembrato realmente sincero nell’affermare: «Se siete diventati dipendenti dai like è colpa mia: sappiate che ho contribuito a crearli» oppure «Se mentre navigate in rete e parlate di un oggetto venite bombardati dalla pubblicità su quella cosa, prendetevela con me: vorrei non aver sviluppato quelle tecniche di microtargeting». Immagino lo stupore dell’interlocutore. Se mi fossi trovato al suo posto gli avrei certamente chiesto: “Perché vorresti non aver sviluppato una tecnica che faceva parte del tuo lavoro?”.

La realtà è più semplice: molte tecnologie, nate con scopi accettabili, portano in seno il rischio di sfuggire di mano e, qui il punto dolente, coloro che le realizzano non possono commisurarne scientificamente gli sviluppi venturi. Chi ha ideato il primo smartphone mai e poi mai avrebbe immaginato di trasformare gli adolescenti in ominidi sistematicamente curvi su di esso, chi ha inventato il primo social network non aveva l’idea di spostare gli affetti, le amicizie e i rapporti umani su una piattaforma asettica e se un uomo del genere arriva al punto di avvisarci di una tale possibile deriva c’è da credergli incodizionatamente e di fare di tutto per invertire la rotta, per quanto possibile. La sincerità delle sue dichiarazioni è stata suffragata dal fatto che lo stesso Hinton ha dato le dimissioni dal suo posto di lavoro presso Google, esattamente per mettersi in proprio e spiegare i pericoli che tutti coloro che utilizzano le nuove tecnologie (ovvero l’umanità) corrono quotidianamente, partendo dal presupposto che è, testualmente: «Quasi impossibile individuare e neutralizzare gli “attori maligni” che la useranno. E potrebbe prendere decisioni non previste». Capiamo bene i termini utilizzati? Si parla di decisioni non previste ovvero della possibilità che domattina potremmo svegliarci, alzarci dal letto e trovarci davanti ad un automa in grado di prendere decisioni autonome, non prevedibili dalla stessa tecnologia e che potrebbero arrecare danni ai fruitori. Per un uomo come me, vissuto a cavallo tra la dolcezza della vita analogica e il flusso distorto e costante della digitalizzazione, il rischio potrebbe anche essere minimo. Ma come la mettiamo con i giovani nati nell’era dell’informazione? Secondo le spiegazioni del nostro pentito, potrebbero trovarsi davanti a due rischi:

  1. Estrema difficoltà di individuare e neutralizzare i molti attori maligni che utilizzano le enormi capacità dell’intelligenza artificiale per diffondere immagini, video, documenti e codici informativi falsi nonché il rischio di attacchi sempre più sofisticati. Su questa potenzialità abbiamo avuto, purtroppo, molti esempi che vanno dal revenge porn a bambini circuiti per essere coinvolti in giochi pericolosi. In quasi la totalità dei casi, risalire alle origini è stato impossibile. Oppure potremmo pensare ai deepfake che potrebbero arrivare a livelli così sofisticati da inibire l’uomo a distinguere il vero dal falso, ovvero a cancellare secoli e secoli di filosofia e di analisi sul dualismo più articolato e bello allo stesso tempo.

  2. Rischio che la macchina possa sfuggire al controllo dell’uomo. Questo è davvero inquietante. Hinton non racconta scenari da Armageddon o di battaglie finali tra uomo e macchina, ma fa notare che determinate intelligenze artificiali, addestrate per auto-apprendere e per sviluppare potenze esponenziali in breve tempo, potrebbero arrivare a generare codici informatici per il proprio funzionamento e gestire gli stessi in modo autonomo. Come se un uomo avesse la capacità di auto-sviluppare determinati poteri. Domattina potrei generarmi le ali e così volare, oppure crearmi dal nulla un potente cannone laser, potrei iniettarmi nella mente la Divina Commedia oppure una nuova lingua che prima non conoscevo. Tutto questo senza sforzo e senza studiare, senza esercitare l’Io profondo.

Cosa possiamo fare nel nostro piccolo? Poco, certamente, una goccia nel mare. Ma, come direbbe qualcuno, senza quell’apporto, il mare avrebbe una goccia in meno.

RIFERIMENTI

logo icted

ICTEDMAGAZINE

Information Communicatio
Technologies Education Magazine

Registrazione al n.157 del Registro Stam­pa presso il Tribunale di Catanzaro del 27/09/2004

Rivista trimestrale  

Direttore responsabile/Editore-responsabile intellettuale

Luigi A. Macrì