Editoriali

CHATGPT, INNOVAZIONE E NUOVE FRONTIERE

CHATGPT, INNOVAZIONE E NUOVE FRONTIERE

In questi ultimi mesi, nel mondo vorticoso e veloce delle innovazioni, si è molto parlato e discusso dell’Intelligenza articificiale e della ChatGPT.

Dopo pochi mesi dal suo lancio, nel novembre del 2022, ChatGPT è il tema dominante, come si direbbe oggi l’head topic, relativamente alle innovazioni ed al futuro dell’Umanità in rapporto con la cosiddetta I.A. Intelligenza Artificiale (I.A.).

Vediamo cosa si intende per ChatGPT. Questo termine è formato da una parola ed un acronimo ovvero chat in italiano “chiacchiera - conversazione” e G.P.T. - Generative Pre-trained Transformer, che possiamo tradurre, nel complesso, in “trasformatore pre-istruito di un generatore di conversazioni”. In altri termini è un “chatbot”, simile a quello che ci risponde vocalmente quando chiamiamo un’azienda di telefonia, che si basa su intelligenza artificiale e apprendimento automatico, sviluppato dall’azienda OpenAI, specializzato nella conversazione con un utente umano.

Questo risponditore risponde a comandi scritti, ma vi sono versioni anche vocali e per immagini.

Tutti concordano nel definire importante questa novità high tech, ma i pareri sui suoi effetti e su come si può trasformare la società del prossimo futuro sono del tutto contrastanti. Da Bill Gates che in una intervista a Forbes la definisce come “un cambiamento epocale”, dal New York Times che la definisce “un pericolo per la democrazia”.

Nel frattempo, il Garante italiano per la Protezione dei Dati Personali (GPDP) ha bloccato l’azienda OpenAi che ha lanciato ChatGPT che nel solo gennaio scorso ha avuto 1,4 milioni d utilizzatori unici, solo nel nostro Paese; lo scorso 6 gennaio il GPDP ha diffuso un comunicato stampa interlocutorio.1

In questo numero diversi articoli hanno trattato, da punti di vista diversi, il tema dell’Intelligenza Artificiale, certamente molto stimolante ed importante per il futuro, ma anche per il presente, della nostra società nei suoi vari aspetti.

Preianò, nel suo articolo Nuove Frontiere della Formazione sul Lavoro ha scritto “della possibile deriva nell’utilizzo sfrenato dell’intelligenza artificiale nel contesto lavorativo, soffermandoci sui rischi connessi all’affidamento a sistemi più o meno evoluti per lo svolgimento dei compiti che non possono che appartenere all’umana specie; Catalano, nel sottolineare che “Non mancano, tuttavia, i timori” si chiede “che ne sarà della creatività umana, se dipenderemo sempre più dalla tecnologia per dar vita a qualcosa di nuovo?! Come trasformare questi formidabili strumenti in una risorsa e non in un ostacolo per la nostra formazione? Che dire dei rischi di un loro impiego per disseminare contenuti verosimili, ma manipolativi e falsi? Tutti interrogativi che sfidano il mondo della cultura, la politica e la scuola.”; Sorrentino, a sua volta, si sofferma “sul ruolo che i social network ricoprono anche nelle attività commerciali. Nonostante la capillare diffusione, molti utenti dei social non hanno la consapevolezza delle reali potenzialità e quindi dei pericoli nell’uso di tali strumenti.”. Questo aspetto viene trattato anche in rapporto con l’utilizzo dell’Intelligenza Artificiale; Amoruso, dal canto suo, tratta il rapporto dell’Intelligenza Artificiale con l’etica e i pericoli per i minori; tra l’altro, l’autore afferma che “una delle preoccupazioni principali è il potenziale impatto delll’IA sulla privacy dei minori. I minori sono spesso meno consapevoli dei loro diritti in materia di privacy e dei rischi associati alla condivisione di informazioni personali online. L’IA può essere utilizzata per raccogliere e analizzare grandi quantità di dati sui minori, il che potrebbe aumentare i rischi di violazione della privacy.”. Maria Brutto, nel porre il problema del rapporto tra BIAS2 e IA, nella puntuale sintesi che propone nel suo breve articolo, pone una domanda centrale: “Quali problemi vanno sollevati affinché si rispettino la libertà, la diversità e non per ultimo il genio umano? Si sottolinea inoltre che “l'IA implica una responsabilità etica nel garantire che venga utilizzata in modo giusto e responsabile.” e si procede nel chiedersi come filtrare dati considerati affidabili sul piano etico?”. Sono queste alcune delle domande, che valgono oggi più di tante risposte spesso superficiali, che stanno impegnando in tutto il mondo molti studiosi.

Questo è solo l’inizio di una serie di riflessioni che proseguiremo nei prossimi numeri in quanto decisivi per le trasformazioni in corso come quella del mondo del lavoro, della Scuola e dell’Educazione. Vi invitiamo ad aderire alle nostre attività in quanto il confronto è fondamentale per non commettere errori che potrebbero causare seri danni, come nel caso della problematica Tecnologie, Genitori e Minori.

Il nostro vuol essere solo un supporto per dare una mano, in quanto esperti di pedagogia, educazione e formazione, per affiancare i portatori di interesse nel difficilissimo compitivo educativo che hanno le famiglie, i docenti e le scuole.

Al fine di informarvi sulle iniziative in corso, vi invitiamo a voler manifestare la vostra disponibilità ad aderire, senza lacun impegno specifico, a questa comunità che vuole sviluppare ed attuare le finalità sopra indicate, inviando una email a: Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo. .

  1. https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9872832
  2. In questo caso si intendono i BIAS cognitivi ovvero “delle distorsioni operate nella valutazioni di fatti ed avvenimenti”.

a cura di Luigi A. Macrì - Direttore responsabile ictedmagazine.com

RIFERIMENTI

logo icted

ICTEDMAGAZINE

Information Communicatio
Technologies Education Magazine

Registrazione al n.157 del Registro Stam­pa presso il Tribunale di Catanzaro del 27/09/2004

Rivista trimestrale  

Direttore responsabile/Editore-responsabile intellettuale

Luigi A. Macrì