Periodico delle Tecnologie dell'Informazione e della
Comunicazione per l'Istruzione e la Formazione
A+ A A-

Il REOlogo, questo sconosciuto di M.F. Oraldo Paleologo

 Abstract: la figura del reologo è sconosciuta ai più, perché riguarda una nicchia di studiosi e scienziati che si occupano, in senso lato, dello scorrimento dei materiali complessi, sia dal punto vista teoretico che industriale. Questo articolo vuole esser d’aiuto alla conoscenza di questa disciplina e uno spunto di riflessioni sulle questioni che la riguardano. Dopo una digressione sulla genesi di questa branca della fisica, lo scritto si focalizza sulle opportunità di lavoro di giovani professionisti nell’industria alimentare.

“Alzi la mano chi ha mai sentito parlare di Reologia”. Qualche timida mano si levò nella platea. “Non Teologia, bensì Reologia.”. E fu così che anche quelle poche impavide braccia si abbassarono in segno di resa. Anche dopo aver digitato su Google la parola Reologia appare il suggerimento:” Forse stavi cercando Teologia?”. In effetti, sulla tastiera le lettere r e t sono una accanto all’altro, forse ad indicare un accostamento quasi impensabile, e forse impossibile. Definire cosa sia la Reologia è cosa ardua, e in passato ogni tipo di definizione si è basata su una sorta di apofatismo a priori, specificando cosa non fossero i materiali su cui questa disciplina poneva l’attenzione: fluidi non newtoniani, fluidi non descrivibili dalle equazioni fluidodinamiche classiche e così via. In ogni caso, la Reologia si occupa del modo di fluire dei materiali, come si può dall’etimologia della parola stessa: dal greco reo, scorrere. Alle radici di questa nuova disciplina fisica (in realtà nuova solo in apparenza), vi fu l’esigenza di descrivere il moto di materiali complessi, come i colloidi, che non si comportavano come l’acqua, l’acciaio o l’aria. Ciò diede modo a due personalità molto diverse, come Bingham, chimico, e Reiner, ingegnere civile, di incontrarsi e discuterne insieme. Il chimico fece notare all’ingegnere che vi fosse bisogno di un nome nuovo per una disciplina nuova. L’ingegnere, acutamente, fece notare che la questione relativa al flusso e, in generale, al comportamento meccanico dei materiali fosse già oggetto di studio della Meccanica del Continuo. Difatti, modelli più sofisticati ed equazioni più complesse non alterano il paradigma entro cui si muove l’indagine fisica di un dato sistema, dacché definizioni, principi e metodi rimangono identici. Bingham, di rimando, rispose che rimanere nell’ambito della meccanica del Continuo avrebbe terrorizzato i chimici (può sembrare una barzelletta, ma le cose andarono proprio così!). I due allora si rivolsero ad un professore di Lettere, il quale, intuendo (non si sa come) che si trattava di descrivere il flusso dei materiali, rimembrò l’adagio eracliteo panta rhei (che Eraclito non scrisse mai in tale forma, ma tant’è). E fu così che nacque la Reologia. L’assunto di fondo di questa affascinate disciplina fisica è che, col tempo, tutto scorrerà, anche le montagne. Reiner era infatti un profondo conoscitore della Bibbia; nell’Antico Testamento, la profetessa Deborah pronuncia le parole ferali:” … Le montagne scorreranno davanti al Signore…”. Ecco, alla faccia dell’indipendenza della scienza da ogni altra forma di sapere! Al di là delle questioni prettamente teoretiche e meta-scientifiche alle radici di questa branca della fisica, occorre dire che la Reologia, pur nella sua ambiguità (ma quale ambito del sapere non è ambiguo, per il solo fatto di procedere e incedere sulle gambe degli uomini, simboli della precarietà dell’esistenza per antonomasia), è andata colmare una lacuna nell’alveo della Fisica classica, che di norma non si occupava di materiali complessi, tantomeno a livello industriale. Con l’avvento dei polimeri, l’esigenza di dimensionare apparati industriali che non processassero fluidi relativamente semplici, come soluzioni acquose, aria o cemento, divenne stringente, e la Reologia ebbe in questo un ruolo chiave, perché in grado di descrivere il comportamento meccanico di questi materiali. Basti pensare alle tonnellate e tonnellate di plastiche si producono oggigiorno. Ma v’è di più. Negli ultimi anni, stanno emergendo nella popolazione dei paesi industrializzati nuove esigenze legate all’alimentazione. Basti pensare ai celiaci, o alle varie intolleranze alimentari; alle necessità degli atleti; o ancora a questioni riguardanti convinzioni etico-religiose, come avviene per vegani o vegetariani. Emerge quindi la necessità di progettare alimenti in cui ingredienti classici, come farina di grano o proteine di origine animale, vengano sostituiti da altri, come amidi resistenti o proteine vegetali. Per essere competitivi sul mercato, questi prodotti devono possedere caratteristiche comparabili con quelli classici. Qui si inserisce la Reologia. Le caratteristiche finali di un prodotto alimentare dipendono fortemente dalle condizioni industriali in cui vengono realizzati. Vi è un filone di ricerca reologica che ambisce a rendere “progettabili” le caratteristiche tecno-sensoriali di un prodotto alimentare, quali aspetto visivo, consistenza al tatto o al palato, gusto e così via. La figura del Reologo, diversamente da quanto potrebbe fare un chimico o un biologo, tradizionalmente interessati ad altri pur rilevanti aspetti, si situa a metà tra l’approccio microscopico e macroscopico, interessandosi sia della costituzione molecolare di un materiale, sia del suo comportamento in flusso. Questa sua peculiare formazione, lo rende capace di sfruttare le informazioni relative alla struttura molecolare di un sistema per evincerne le caratteristiche macroscopiche. Inoltre, di norma il Reologo proviene dall’Ingegneria Chimica, e pertanto conosce abbastanza bene sia gli aspetti termodinamici che dei fenomeni di trasposto di quantità di moto, calore e materia di un sistema fisico, fondamentali per valutare ogni aspetto della progettazione industriale di un alimento. Prendiamo ad esempio uno spaghetto: dalle materie prime al consumo da parte del cliente, il sistema va incontro a diverse fasi: formazione e trattamento dell’impasto, scorrimento di questo nei vari apparati industriali, essiccamento, cottura. In ciascuna di queste fasi, occorre imporre determinati valori, o profili, di temperatura e umidità per garantire che calore e materia si trasportino in maniera adeguata; inoltre, gli apparati industriali devono essere capaci di trasportare il materiale con una determinata velocità e potenza meccanica, i cui valori vanno determinati considerando che il materiale non fluisce come farebbe l’acqua, ma in maniera un po’ più complessa. Pertanto, in un’epoca di stravolgimenti climatici e sociali come la nostra, creare nuove e valide possibilità di sviluppo anche nel settore alimentare costituisce un’occasione irrinunciabile per tanti giovani ingegneri e professionisti che vogliono investire nel settore alimentare.

Dott. Ing. Paleologo Mario Floro Oraldo

0
0
0
s2sdefault

Fake news: processi e dinamiche psicologiche

di Rosa Suppa

Abstract

«Le euristiche o processi mentali intuitivi,  utilizzano strategie veloci,  che sono spesso alla base dei bias cognitivi o errori sistematici di giudizio […] ciò che rende questi stili di pensiero disfunzionali non è tanto la loro presenza, ma la loro rigidità e inflessibilità, specialmente se ci conduce ad interpretare gli eventi,  e noi stessi, in modo irrealisticamente negativo»[1].

 ******

 Il declino della verità

Discontinuità e liquidità sembrano essere ormai i caratterizzanti assoluti dei sistemi mediatici che abitiamo. Abbiamo tutti scelto di vivere in un mondo interconnesso, dove ciascuno/a di noi produce quantità esorbitanti di dati per poi riversarli sul web e sui social media e da cui, a nostra volta, assorbiamo informazioni prodotte da altri. «In queste interconnessioni, la maggior parte delle informazioni che circolano crea uno spazio cognitivo permanente che possiamo definire content continuum dove ormai viviamo e interagiamo per fare qualsiasi cosa.»[2]

«Non ci fidiamo più dei dati oggettivi, la nostra esperienza personale ci appare molto più sicura e affidabile per interpretare il mondo, perché l’idea che abbiamo è che la verità sia una merce potenzialmente acquistata da qualche ente che poi ce la rivende sui media.»[3] Così gradualmente «la verità oggettiva cade perché considerata merce […] Restano la verità soggettiva e le opinioni personali che alimentano la mis-informazione […] ovvero la diffusione involontaria di notizie deformate e/o falsate. Il problema è che le dinamiche di costruzione della conoscenza e dell’informazione oggi passano sempre più per questa dimensione individuale e biografica: profili social, blog, siti web personali che personalizzano e narrativizzano la costruzione e la diffusione delle conoscenze.»[4]

 

 Processi di ragionamento e bias cognitivi

Le fake news fanno leva sia sulla necessità dell’uomo di soddisfare i propri bisogni, siano essi quelli di appartenenza e di autorealizzazione, che sui processi cognitivi che caratterizzano ciascun essere umano. Il nostro sistema cognitivo processa ed elabora gli stimoli e le informazioni mediante procedure cognitive diverse «uno più rapido e l’altro più lento. Il primo processo che si basa su valutazioni rapide e automatiche definite “euristiche” utilizza scorciatoie di ragionamento per processare i dati, questo processo tende ad avviare una valutazione delle informazioni  e dei media in forma veloce  e ciò diventa il sostrato di proliferazione e diffusione delle fake news. Il secondo processo si basa invece sulla riflessività, è più accurato ed effettua un controllo più lento delle informazioni.[…]»[5]

I processi mentali intuitivi e sbrigativi, che permettono di costruire un’idea generica su un argomento senza effettuare eccessivi sforzi prendono il nome di euristiche. «Le euristiche o processi mentali intuitivi, che utilizzano strategie veloci, sono spesso alla base dei bias cognitivi o errori sistematici di giudizio […] ciò che rende questi stili di pensiero disfunzionali non è tanto la loro presenza, ma la loro rigidità e inflessibilità, specialmente se ci conduce ad interpretare gli eventi,  e noi stessi, in modo irrealisticamente negativo»[6].

Dunque l’uomo utilizza delle scorciatoie di pensiero per processare i dati e le informazioni, gli studi più recenti hanno mostrato come le euristiche condizionino i nostri giudizi e come diverse possano essere le euristiche a nostra disposizione.

Le scorciatoie di pensiero, le euristiche

Le euristiche, secondo gli studi effettuati da due studiosi americani Clark  e Beck possono essere  di  «sei tipologie:

«Catastrofismo, in questa euristica eventuali e possibili eventi negativi sono percepiti come una catastrofe intollerabile, piuttosto che essere valutati in una prospettiva più attenta e positiva.

Può accadere quando si tende a giudicare un evento in maniera negativa senza ipotizzare altri sviluppi o esiti.

Saltare alle conclusioni, tale euristica si caratterizza per il passare dalla formulazione di un possibile problema al suo esito negativo senza esplorare i passaggi intermedi e quindi tutti i possibili sviluppi, saltando alle conclusioni.

Le persone che sistematicamente mettono in atto questo processo di ragionamento tendono a non compensare a sufficienza le informazioni mancanti, anche quando è assolutamente evidente che quelle che si hanno sono incomplete.

Visione a tunnel sulla minaccia, in questa euristica un unico aspetto di una situazione complessa è il focus dell’attenzione e altri aspetti rilevanti della situazione sono ignorati. Per esempio ci si focalizza su un commento negativo trascurando altri aspetti positivi.

Imminenza percepita della minaccia, in tale processo di ragionamento la persona sa che potrebbe andare incontro a un evento negativo, ne è consapevole, l’errore riguarda l’imminenza della minaccia, sentita come molto ravvicinata, dietro l’angolo in modo così intenso da stimolare un aumento di sentimenti negativi quali ansia e paura.

Ragionamento emotivo, questa euristica si caratterizza per la tendenza a considerare le reazioni emotive come prove attendibili della negatività di una situazione.

Così per esempio se un individuo si sente sfiduciato, può, se aderisce a questa euristica, arrivare a concludere che la situazione è senza speranza (“se mi sento male allora andrà male”).

Pensiero dicotomico in questo processo di ragionamento, le cose sono viste in termine di categorie mutualmente escludentisi senza gradi intermedi.

 Per esempio una situazione o è un successo, oppure è un fallimento; se una situazione non è completamente perfetta allora è un fallimento».[7]

La letteratura psicologica moderna ha stimato che relativamente a queste euristiche è possibile individuare circa  oltre cento bias, […] tuttavia studi recenti hanno tentato di raggruppare i bias «in cinque categorie empiriche di appartenenza:

  • Bias di rappresentatività, ovvero propensione a considerare gli eventi ricordati come quelli maggiormente frequenti.
  • Bias del desiderio, ovvero la propensione a basare le proprie decisioni soprattutto su componenti emozionali.
  • Bias del costo, ovvero la propensione a ingigantire o diminuire il valore dei costi o delle perdite.
  • Bias di contesto, ovvero la propensione a farsi influenzare in modo consistente dal giudizio degli altri.
  • Bias di ancoraggio, ovvero la tendenza dei soggetti a essere influenzati da un valore numerico di riferimento»[8].

Questi processi rappresentano il tentativo di elaborare velocemente una serie consistente di informazioni anche al fine di preservare il nostro equilibrio cognitivo.

Si tratta pertanto di «quell’insieme di azioni automatiche che ci aiutano a percepire il mondo intorno a noi, riconoscere gli oggetti, orientare l’attenzione, individuare le sfumature sociali, operazioni che risultano essere fondamentali per garantire una vita più fluida e meno vincolata cognitivamente. […] Alcuni bias, come nel caso dei bias di proiezione, di gruppo, illusione della frequenza e di conferma, sono anche alla base delle ragioni per cui le fake news possono essere percepite dagli utenti come vere e una volta che si creano delle miscomprensioni, rendere difficile la loro disconferma»[9].

Nel bias di proiezione tendiamo ad esempio a evitare di mettere in discussione le nostre convinzioni e correre il rischio di scoprire di essere in errore limitandoci a pensare che la maggior parte delle persone la pensi come noi. «Il bias del gruppo ci induce a sopravvalutare le capacità  e il valore del nostro gruppo,  a considerare i successi dello stesso  come risultato delle qualità dei suoi membri mentre tendiamo ad attribuire  i successi di un gruppo estraneo a fattori esterni non insiti nella qualità della persone che lo compongono.[…] Nell’era del big data il fatto che ci vengano fornite new in linea  con ciò che consideriamo interessante o importante, dato ottenuto con le nostre navigazioni, incrementa illusione della frequenza. Nel bias di conferma o tendenza a non cambiare l’idea, gli individui puntano a non cercare a non notare indicazioni contrarie alla propria opinione e se le trovano tendono a dar poco rilevanza, e i punti di vista preesistenti vengono così alimentati […]»[10].

Questi processi sono conosciuti e sfruttati, con i motori di ricerca che ci presentano, in posizioni ben evidenti, informazioni in sintonia con la nostra opinione, alimentando la propensione a continuare: più cerchiamo conferma di una nostra opinione, più troveremo notizie che la confermano. […] »[11]

Secondo Xinyi Zhou e Reza Zafarani ricercatori della Cornell University università statunitense situata a Ithaca, nello stato di New York, i processi psicologici cognitivi degli utenti sono sfruttati per creare e diffondere fake news contribuendo in questo modo a veicolare specifiche credenze, orientare le scelte delle persone, influenzare la formazione dell’opinione pubblica. Non a caso gli esperti di comunicazione e marketing che curano le campagne elettorali dei candidati e dei partiti, la comunicazione di un’azienda ente o organizzazione si rifanno sempre frequentemente a tutto questo al fine di incrementare l’efficacia della comunicazione»[12].

In questo mondo della post verità, siamo noi il bottino da conquistare, le nostre vite sono informazioni da acquisire.

Bisogna fermarsi per non essere travolti  dal finzionale. E’ essenziale  che ci venga restituita la potenza generativa della nostra psiche e la responsabilità del tempo che abitiamo per dissipare l’imbarbarimento cognitivo che impera. In questo processo l’educazione e media literacy emergono come elementi chiave per costruire la resilienza al fenomeno della post-verità e ridurre ogni tipo di polarizzazione, rafforzando la fiducia nella società e nei media.

Prof.ssa Rosa Suppa

Docente di Filosofia e Scienze Umane

 

BIBLIOGRAFICA

  • Arcuri, I processi di comunicazione, Il Mulino, Milano 2003.
  • Bonazzi, Piccola filosofia per tempi agitati. Milano, Salani, 2019.
  • Fontana, Fake news sicuri che sia falso?,Hoepli,Trento, 2019.
  • Fontana, Regimi di verità, Codice, Torino, 2019, Introduzione p.VII.
  • M. Lorusso, Postverità. Fra reality tv, social media e storytelling, Roma-Bari, Laterza, 2018.
  • Nota, La passione per la verità, FrancoAngeli,Milano, 2020.
  • Pagliaro, Punto. Fermiamo il declino dell’informazione, Il Mulino,Bologna,2017
  • Quattrociocchi. A. Vicini, Liberi di crederci. Informazione, internet e post-verità,.ed.Codice, Torino 2018.
  • Riva,Psicologia dei nuovi media,ed.Il Mulino,Bologna, 2012
  • Riva, Fake news, Il Mulino Bologna,2019.

   DOCUMENTI CONSULTATI

  NOTE

[1] A.Fontana,Fake news sicuri che sia falso?,Hoepli,Trento,2019, p. 22

[2]Ibidem

[3]A.Fontana,Fake news sicuri che sia falso?,Hoepli,Trento,2019, p. 24

[4] W.Quattrociocchi. A. Vicini, Liberi di crederci. Informazione, internet  e post-verità,e.Codice, Torino 2018, p.124

[5] Sara Santilli, Maria Cristina Ginevra, Ilaria Di Maggio, in La passione per la verità, di Laura Nota,Franco Angeli, Milano , 2020, p.100

[6] Ibidem

[7] Sara Santilli, Maria Cristina Ginevra, Ilaria Di Maggio, in La passione per la verità , di Laura Nota,Franco Angeli, Milano , 2020, pp.100,101

[8] Ibidem

[9] Ivi,p.102

[10] Ibidem

[11] Ibidem

[12] Sara Santilli, Maria Cristina Ginevra, Ilaria Di Maggio, in La passione per la verità , di Laura Nota,Franco Angeli, Milano , 2020, p.103

 

 

0
0
0
s2sdefault

L'informazione tra scienza, tecnologia e arte

Dopo le tre avanguardie storiche, futurismo dadaismo e surrealismo, il racconto artistico dell'innovazione ha perso da tempo non solo definitivamente il suo statuto di rappresentare un qualsiasi universo che sia oggettivo per tutti, ma ha anche accantonato parte della singolarità di alcuni fenomeni ottici, fisici o psichici unici, per far emergere meglio i tanti universi che si relazionano  in un hic et nunc (qui ed ora) attraverso i nuovi valori dinamici, linguistici e cognitivi che sono ormai raccordati in modo relativo alle scelte che fa un osservatore o un narratore-artista.

L'artista, in effetti, dall'inizio del Novecento dopo aver messo in discussione la tecnica della rappresentazione, ha ravvisato limiti anche nei suoi strumenti del rappresentare, e con essi ha sollevato dubbi sul modello del suo narrare per mezzo sia dell'espressione e sia della propria tecnica artistica, fino a gettare ombre sui fondamenti del suo stesso linguaggio.
Non a caso, nel secolo scorso, alcuni critici posero l'esperienza a fondamento dell'artistico (John Dewey), e da allora (1934), la stessa arte non ebbe più fondamento solo nella memoria di un'origine che andava ricercata dentro l'uomo; ma come aveva specificato meglio un altro filosofo europeo poco prima di quegli anni (1921), nel suo "Tractatus Logico-Philosophicus”, qualsiasi origine va ricercata nei modelli logico-linguistici che ogni singolo artista (e non) decide di utilizzare per raccontare gli eventi nei limiti del proprio mondo (Ludwig Wittgenstein). L'arte in qualche modo venne accomunata al linguaggio e alla rappresentazione attraverso modelli.

La scienza e la tecnica nel frattempo grazie ad Albert Einstein, a partire dal 1905 avevano già iniziato a porre le basi per formalizzare un nuovo linguaggio e con esso emerse un nuovo modo di "sentire", "vedere" e "conoscere" gli eventi e analizzare i fenomeni... in "modo relativo". Tra l'altro egli ebbe bisogno dell'ausilio di calcoli logico-matematici per correggere alcune imperfezioni di credenze sulla visione, come ad esempio successe con l'affermarsi della curvatura dello spazio-tempo cosmico, rispetto a una visione geometrica di rette euclidee applicata all'osservazione degli eventi cosmici. Non a caso le sue osservazioni si dimostrarono veritieri nel 1919, dopo che ebbe pubblicato i calcoli sulla relatività generale nel 1915.

Un nuovo rapporto si può dire che si era instaurato tra ricerca e osservazione scientifica e alcuni dispositivi di calcolo logico-matematici. Da allora furono costruiti sempre migliori e maggiori strumenti tecnici, o dispositivi, per osservare, come in questo caso, il cosmo. Ad esempio si sono costruiti dei dispositivi sensoriali per osservazioni telescopiche a radiazioni e a onde che apportano automaticamente gli aggiustamenti strutturali alle informazioni che giungono dai miliardi e miliardi di galassie di cui si crede oggi siano costellate le calotte celesti. L'occhio umano che osserva trova aiuto nei calcoli e nelle informazioni che provengono da radiazioni.

La grande rivoluzione scientifica einsteiniana è stata quella di aver collocato l'osservatore al centro della sua osservazione e con gli strumenti che egli utilizza nel suo ambiente di sperimentazione. Ecco che la relatività implicitamente riferisce non solo l'osservazione sperimentale ma anche i modelli che uno scienziato ha scelto per la sua osservazione scientifica. Queste scelte avvengono anche nel racconto artistico coevo.

Quello che qui si tenta di evidenziare solo per cenni è in che modo e come il sistema di conoscenze e di cognizioni finora acquisito dall'uomo si sta modificando grazie all'utilizzo del sistema delle informazioni (Teoria dell'informazione, Claude Shannon, 1948) e in che modo questo nuovo modo di relazionarsi con l'ambiente vicino e lontano ha inciso nella produzione di una nuova visione, utilizzando un nuovo linguaggio scientifico che ha inevitabilmente prodotto anche nuove forme d'arte.

L'utilizzare il bit, ovvero l'unità di misura dell'informazione nel linguaggio informatico, non è per il nostro sistema cognitivo solo un nuovo modello che velocizza la comunicazione. Esso presuppone, invece, almeno un nuovo modello di cosmo in cui accadono i fenomeni dello spazio-tempo; questi fenomeni poi possono essere osservati sia come eventi energetici e sia come strutture di masse organiche. Decidere di seguire un modello di osservazione fa escludere per ora l'altro. Inoltre, noi dobbiamo anche comprendere  il racconto dell' "artista" che ricorre ai nuovi strumenti di racconto dell'osservazione e della percezione dello spazio-tempo, del mondo subatomico, o dell'informazione genetica, etc.
Comunque l'artista utilizzando i nuovi dispositivi o i nuovi materiali assemblati da altri dispositivi può raccontare o argomentare artisticamente e contestualmente il proprio "sentire" i fenomeni di una nuova scienza fisica e psichica. Molti di noi critici credono che in questo consiste la produzione di una nuova forma d'arte. Essa deve necessariamente coinvolgere oltre che gli studi scientifici di base, anche gli studi fisiologici di quelli che oggi consideriamo sistemi biologici viventi (tra cui annoveriamo il sistema attuale umano) e in futuro anche quelli assemblati con il silice o la robotica.

Mario Costa qualche decennio fa auspicava che anche nell'arte fossero poste le seguenti distinzioni: arte della tecnica, arte della tecnologia e arte delle neotecnologie. All'arte della tecnica egli faceva corrispondere tutta quell'arte del passato e contemporanea che utilizza le tradizionali tecniche della composizione, come pennello e colori per i pittori, o martello e scalpello per gli scultori etc. All'arte della tecnologia egli faceva risalire l'utilizzo di dispositivi che consentivano nuove forme espressive artistiche, come ad esempio il dispositivo della macchina fotografica per l'arte della fotografia, o la cinepresa con la pellicola a impressione per l'arte cinematografica. All'arte neotecnologica, invece, appartengono tutti quei dispositivi di calcolo automatico che permettono di far stimolare e interessare la nostra attenzione per ricevere o scambiare informazioni nel nuovo universo telematico, dove tutto è traducibile nel linguaggio dei bit d'informazione.
Per quest'ultima forma d'arte tecnologica Costa ha anche auspicato di modificare il termine artista in "operatore estetico"; proprio per evidenziare quella frattura tra i vari modelli espressivi delle diverse forme di arti. A questo acuto autore, però, manca il collegamento coi cambiamenti linguistici fisici e cognitivi legati all'evoluzione scientifica e tecnica che ha attraversato tutto il Novecento, perché egli ha come fine l'affermazione di alcune locuzioni come "estetica della comunicazione", "sublime tecnologico", "blocco comunicante", "estetica del flusso" e la più recente "esternalizzazione tecnologica". È come se egli volesse ancora filosofeggiare "concettualmente" e non entrare nella struttura "comunicativa nuova" dove i messaggi sono considerati input o stimoli relativi, e per giunta mettono in connessione modelli cerebrali. Sono questi elementi nuovi che hanno indotto molti studiosi ad affermare che è in atto una evoluzione dell'umano senza precedenti. Per questo motivo, anche il termine "estetica della comunicazione" a mio giudizio è ancora poco corrispondente alle trasformazioni in atto, in quanto il "sentire" che si sta affermando attraverso stimoli sensoriali (o informazioni) raccolti da dispositivi di calcolo (come lo sono ad esempio i modem e il computer) trova i fondamenti in un linguaggio formalizzato attraverso l'elettricità, o la radiazione luminosa o i "quantum" di calore (etc.) del tutto nuovi, e che si trasmettono con canali, e che sono tutti traducibili nel linguaggio di calcolo informatico o dell'informazione grazie a dei dispositivi. Vi è anche una teoria in merito che si chiama dell'informazione, e che non solo studia i vari linguaggi informatici, ma ha prodotto da tempo una psicologia (Marvin Minsky, Sherry Turkle); inoltre, è risaputo, che per ogni campo scientifico innovativo diverso vi è un'unità di misura dell'informazione.
Ricordiamo, poi, che questa differenza nell'universo dell'artistico è stata lucidamente posta fin dal 1992 da un altro estetologo scomparso non molto tempo fa, Dino Formaggio.
Ciò che però conta, al di là di disquisizioni meramente teoriche, è che l'arte e la scienza possono essere riunificate in un unico modello sperimentale grazie all'informazione.
Dapprima va compreso però come il "sentire" artistico e l'osservare scientifico sono formalizzati o tradotti e trasmessi nel linguaggio dei messaggi-stimoli (Kurt Gödel, 1931).
Questo nuovo linguaggio è formalizzato solo successivamente con immagini e con concetti, ma prima ci sono i calcoli e la formalizzazione linguistica in imput energetici che comunemente chiamiamo informazioni o  stimoli. Per trasmettere questi linguaggi, come ho ricordato poc'anzi, si può utilizzare ad esempio la luce, l'energia elettrica, il calore o qualsiasi altro elemento conduttore che può far da tramite per il pass aggio di informazione. In questi codici l'uomo può tradurre anche qualsiasi messaggio scritto nel codice del linguaggio verbale o visivo umano.

Fu il filosofo, logico e matematico Kurt Gödel che nel 1931 pose le basi per gli attuali dispositivi di calcolo con cui oggi traduciamo calcoli logici in stimoli e poi anche in suoni, in immagini visive e in racconti recepiti dai nostri cinque sensi umani.
L'arte digitale, che include dalla computer art, alla web art, alla digital imaging, alla electronic literature, alla computer poetry, alla net art, alla musica elettronica, alla pixel art, etc., semplificando, non è altro che un arte che permette l'utilizzo dei dispositivi d'informazione per inviare messaggi di artisti o di operatori estetici.
Si abbia cognizione sempre, perciò,  che tutti i messaggi artistici nell'universo dell'informazione configurano relazioni in un ambiente relativo e in modo dinamico, e raramente vogliono rappresentare qualcosa ... (se non informare su quella evoluzione di relazioni che si produce e interagisce in un ambiente e che può essere presentata come una storia relativa perché emersa e recepita da un punto di vista da parte di un un osservatore che nel momento del rilevamento ha ricevuto le informazioni in un preciso luogo dello spazio-tempo).

Inoltre, il messaggio contenuto in un'informazione permette a un destinatario a cui giunge lo stimolo, di configurare relazioni dinamiche in movimento, mentre la rappresentazione rimane sul fondo, come un'organizzazione di un superato modo di procedere attraverso un simbolo, una figura, una immagine che ancora oggi per alcuni trasmette un messaggio universale.

 

Giuseppe Siano

Teorico dell’Arte

 

Note Bibliografiche

 

  • Einstein, L’elettrodinamica dei corpi in movimento, Elektrodynamik bewegter Korper, Annalen der Physik, 17, 891-921 (1905). Traduzione di  Antoci.[Annalen der Physik] 1905. Sul sito internet è scaricabile la traduzione al seguente indirizzo https://paginedinatura.wordpress.com/2013/05/27/la-relativita-negli-articoli-originali-tradotti/
  • Einstein, Un punto di vista euristico relativo alla generazione e trasformazione della luce -Il testo tradotto in italiano di Albert Einstein, Emissione e trasformazione della luce, da un punto di vista euristico, è tratto da Teoria dei quanti di Luce, Edizioni Newton Compton, 1976. Einstein, nel lavoro del 1905, che gli permise di ricevere il Premio Nobel per la fisica nel 1921, fornisce una spiegazione dei fatti sperimentali partendo dal principio che la radiazione incidente possiede energia quantizzata. Infatti, i fotoni che arrivano sul metallo cedono energia agli elettroni dello strato superficiale del solido; gli elettroni acquisiscono così l’energia necessaria per rompere il legame; in questo senso l’ipotesi più semplice è che il fotone ceda all’elettrone tutta l’energia in suo possesso. A questo punto, secondo Einstein, l’elettrone spenderà parte dell’energia per rompere il legame e parte incrementerà la sua energia cinetica che gli permetterà di arrivare in superficie e abbandonare il solido; da qui si può capire che saranno gli elettroni eccitati più vicini alla superficie ad avere la massima velocità normale alla stessa. Egli conclude che (1) l’energia degli elettroni uscenti sarà indipendente dall’intensità della luce emettente e anzi dipenderà dalla sua frequenza; e (2) che sarà il numero di elettroni uscenti a dipendere dall’intensità della radiazione.
  • Einstein, (Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen, articolo — Sulla teoria cinetico-molecolare del calore dovuta al movimento di particelle sospese in liquidi a riposo) [Annalen der Physik] 1905.
  • Einstein,  I fondamenti della Teoria della relatività generale, Die Grundlage der allgemeinen Relativitatstheorie, Annalen der Physik, 49, 769 (1916). Traduzione di S. Antoci.Sul sito internet è scaricabile la traduzione al seguente indirizzo:

          https://paginedinatura.wordpress.com/2013/05/27/la-relativita-negli-articoli-originali-tradotti/

  • Dewey, L'arte come esperienza, Firenze, La Nuova Italia, 1951. (1934)
  • Wittgenstein, Tractatus Logico-Philosophicus, trad. it. a cura di A.G. Conte,  Torino, Einaudi, 1989.
  • E. Shannon, A Mathematical Theory of Communication, Bell System Tecnica Journal, vol. 27, pp. 379–423 (luglio), 623–656 (ottobre), 1948. ripubblicato e ampliato insieme a Weaver, C. E. Shannon e Warren Weaver, The Mathematical Theory of Communication, Università dell’Illinois urbana Champaign, 1949; trad. it.: La teoria matematica delle comunicazioni, Milano, Etas Kompass, 1971.
  • Gödel, Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme, «Monatshefte für Mathematik und Physik», vol. 38, 1931, sta in Opere, vol. 1 (1929-1936), Torino, Bollati Boringhieri, 1999.
  • Costa, Dimenticare l'arte. Nuovi orientamenti nella teoria e nella sperimentazione estetica, Milano, Franco Angeli, 2005, Id, Arte contemporanea ed estetica del flusso, Vercelli, Mercurio Edizioni, 2010.
  • Più che di una psicologia le opere di M. Minsky sono caratterizzate da una vera e propria teoria sulla struttura mentale e sulla sull’organizzazione del pensiero nell’uomo e nelle macchine. Segnalo solo il suo libro più famoso La società della mente, Milano, Adelphi, 1989.
  • Turkle, segnalo solo il testo più famoso della psicologa americana, che collega le teorie psicoanalitiche all’uomo tecnologico, La vita sullo schermo, Apogeo Education, 2013
  • Formaggio, La «morte dell'arte» e l'Estetica, Bologna, il Mulino, 1983
0
0
0
s2sdefault
  • Scritto da ELEONORA Converti
  • Categoria: Scienze e altri saperi
  • Visite: 251

Uno sguardo sull'universo: gli anni che sconvolsero la fisica

UNO SGUARDO SULL’UNIVERSO: GLI ANNI CHE SCOLVOLSERO LA FISICA

di Katia Canonico

Abstract - Poco più di cent’anni fa, gli scienziati pensavano alla vita dell’Universo come qualcosa di eterno, infinito e stabile, senza inizio e senza fine e ciò rendeva impossibile mettere a fuoco la domanda circa le origini dell’Universo. Ma ben presto le cose cambiarono e tutt’oggi molte domande restano senza risposta. È possibile risalire alle origini.

Il 14 Settembre 2015 alle 11:50:45 ora italiana, è stata rilevata un’onda gravitazionale prodotta più di un miliardo di anni fa da un sistema di due buchi neri, distanti da noi più di un miliardo di anni luce: questi due oggetti hanno orbitato per milioni di anni l’uno intorno all’altro avvicinandosi sempre di più (la loro orbita si è contratta a causa della perdita di energia dovuta alle loro emissioni di onde gravitazionali), acquistando sempre più velocità (circa la metà della velocità della luce) e alla fine si sono fusi per formare un unico buco nero di massa ancora maggiore, producendo in pochi decimi di secondo 50 volte la luce emessa da tutte le stelle presenti nell’Universo. Nel calcolo delle masse si è potuto vedere che dalla massa iniziale fino alla massa dell’oggetto formato alla fine risultano tre masse solari mancanti che si sono convertite in energia gravitazionale secondo la famosa equazione di Albert Einstein E=mc2.

Ed è proprio da Albert Einstein che nel 1915 arrivò la svolta decisiva nella comprensione dell’Universo, quando pubblicò la teoria della relatività generale, superando il concetto newtoniano di spazio, tempo e gravitazione: secondo Newton lo spazio è qualcosa di rigido e i corpi si muovono attirati da quella forza gravitazionale che li porta gli uni verso gli altri; al contrario, secondo Einstein, lo spazio non è un’entità rigida ma viene deformato sotto la forza di una massa, causando così il movimento dei corpi celesti. Tuttavia non è solo lo spazio ad essere influenzato dalla distribuzione di massa, bensì anche lo scorrere del tempo: orologi posti in campi gravitazionali più forti, battono i secondi più lentamente, portando così alla creazione di una nuova entità, lo spazio-tempo. La relatività generale è presente nella nostra vita quotidiana più di quanto si pensi: in ogni cellulare è presente il GPS (Global Positioning System) che funziona tramite una comunicazione tra l’oggetto a terra e i satelliti. Siccome il tempo scorre diversamente sulla Terra e sui satelliti, senza le correzioni della relatività generale non osserveremo la grande precisione che questo sistema riesce a darci nel posizionamento.

Fu Einstein, nel 1916, a predire l’esistenza delle onde gravitazionali. Il campo gravitazionale di un buco nero è così forte che qualunque oggetto (compresa la luce), avvicinandosi sufficientemente e superando quello che si chiama orizzonte degli eventi, non sarebbe più in grado di sottrarsi alla fortissima gravità.

Ma la proposta iniziale di misurare le onde gravitazionali con la luce arrivò negli anni ’70 da Rainer Weiss e poi portata avanti da Kip Thorne, proposta che si trasformò in un osservatorio, l’osservatorio LIGO; mentre ad Adalberto Giazotto e Alain Brillet fu proposta la costruzione di un rivelatore analogo, il rivelatore VIRGO che attualmente è installato presso l’European Gravitational Observatory a Cascina, vicino Pisa. Lo strumento che si usa per misurare questa onda gravitazionale è l’interferometro di Michelson, composto da un laser, alcuni specchi di quarzo purissimo e un fotorivelatore che misura la quantità di luce che vi incide sopra (sono oggetti sospesi con filtri sofisticati per evitare che i disturbi sismici del terreno nascondano completamente la piccolissima vibrazione che si va a misurare). Nel tubo in cui viaggia il fascio laser c’è il vuoto perché la propagazione del laser non può essere disturbata dagli urti con le molecole dell’aria. Il fascio laser raggiunge uno specchio che separa il fascio in due componenti che viaggiano lungo due bracci fra loro perpendicolari (i bracci sono lunghi alcuni chilometri perché la loro lunghezza aumenta l’effetto dell’onda gravitazionale che si va a misurare), raggiungono gli specchi alla fine di questi bracci, tornano indietro, si ricombinano e si sovrappongono. L’arrivo di un’onda gravitazionale cambia la distanza tra i bracci e di conseguenza di queste variazioni sul fotorivelatore un’alternanza di luce e di buio, segno di una possibile interazione con un’onda gravitazionale: il segnale misurato è stato lo spostamento di uno di questi specchi, un segnale piccolissimo, dell’ordine di 10-18 metri.

Interferometro di Michelson

Nella prima parte del 20esimo secolo, era ben noto che il nostro sistema solare giacesse all’interno di una galassia, la Via Lattea: ogni singola stella che vediamo in cielo ad occhio nudo fa parte di essa e fino agli anni ’20 , si riteneva che questa singola galassia rappresentasse l’intera estensione dell’Universo, oltre il quale c’era solo il vuoto. Eppure vi erano anche oggetti appena distinguibili ad occhio nudo che sembravano diversi, uno dei più notevoli era Andromeda: nebulose simili (vennero chiamate nebulose per via della loro natura tenue e sottile, come una nuvola, difatti “nebulosa” deriva dalla parola latina per nuvola) a quest’ultima vennero trovate sparse in giro per tutto il cielo notturno. I telescopi rilevarono che molte di esse erano ben più complesse di semplici nuvole di gas interstellare, sollevando così due possibilità: questi oggetti erano luoghi in cui nascevano le stelle e quindi risiedevano all’interno della nostra galassia, oppure erano galassie di per sé situate al di fuori della Via Lattea? Le implicazioni di questa seconda possibilità furono enormi, rimodellando così la conoscenza sulla dimensione dell’Universo: nel 1923, l’astronomo Edwin Hubble studiò la nebulosa Andromeda, lavorando con quello che allora era il telescopio più grande al mondo, il telescopio Hooker da 2,5 metri, situato all’Osservatorio di Monte Wilson sulla cima delle alte montagne della Sierra che sovrastavano Los Angeles e la California (al giorno d’oggi il telescopio più grande esistente è il GTC, con uno specchio primario di oltre 10 metri di diametro). La prima stella che Hubble notò era una stella che possedeva una luminosità variabile, una Variabile Cefeide: il campionario stellare delle Variabili Cefeidi sono di fondamentale importanza per gli astronomi, in quanto grazie alla loro luminosità è possibile calcolarne la distanza. Ed è proprio ciò che fece Hubble misurandone la brillantezza, stimandone il periodo (cioè il tempo in giorni che va da un apice di luminosità all’altro, che secondo Hubble era di 31,415 giorni) e annotando una curva: Hubble capì che Andromeda si trovava a 900.000 anni luce di distanza, il che la rendeva l’oggetto più remoto mai registrato.

Nel 1917 Einstein prese la sua teoria della relatività generale e l’applicò all’intero Universo: l’attrazione gravitazionale di tutta la materia dell’Universo avvicinerebbe tutti gli elementi nel cosmo, iniziando ad accelerare lentamente, ma in modo graduale, finché la gravità alla fine, porterà al collasso dell’Universo stesso. Ma Einstein credeva che l’Universo fosse eterno e statico e di certo non instabile o che rischiasse di collassare su se stesso, sebbene le sue equazioni sembravano dimostrare il contrario: per tenere tutto in equilibrio, aggiunse alla sua equazione il Λ o la Costante Cosmologica, una sorta di forza di antigravità inventata che agisce contro la normale gravità. Non aveva prove di ciò ma più tardi ammise che la Costante Cosmologica serviva al solo scopo di una distribuzione quasi statica della materia. Al contrario, Georges Lemaître descriveva un Universo tutt’altro che statico, che si espandeva con galassie che sfrecciavano l’una lontana dall’altra; Lemaître colse le implicazioni di tutto ciò: andando a ritroso nel tempo dedusse che ci dovesse esser stato un momento in cui l’intero Universo si restrinse in un volume minuscolo, qualcosa che soprannominò l’atomo primigenio. Ben presto, in un incontro con Lemaître, Einstein scartò l’idea di un Universo dinamico…fino a quando nel 1928 Edwin Hubble, dopo aver dimostrato l’esistenza di galassie al di fuori della nostra, iniziò a misurare la velocità a cui si muovevano queste galassie rispetto alla Terra, utilizzando l’effetto redshift: quando la fonte di luce si avvicina, la lunghezza d’onda osservata è compressa verso la parte viola o blu dello spettro, ma se la fonte si allontana da noi la lunghezza d’onda si allunga verso la parte rossa dello spettro. Nell’effetto redshift, maggiore è la velocità a cui l’oggetto si allontana, maggiore è il redshift. Hubble doveva misurare la luce media che veniva dalla galassia per poter ottenere uno spettro e calcolare così il redshift. Ma se l’Universo fosse eruttato da un singolo punto, da dove proveniva tutta la materia? La teoria del Big Bang doveva fornire una spiegazione alla formazione della materia stessa. Gli astronomi andarono alla ricerca degli elementi più comuni tramite un telescopio solare: trovarono ferro, idrogeno, ossigeno, magnesio. Cecilia Payne aveva studiato all’università di Cambridge, non le fu permesso ottenere una laurea in quanto donna, così per continuare a studiare dovette lasciare l’Inghilterra per trasferirsi in America; fu lì che svelò la composizione dell’Universo: intuì che gli spettrografi erano influenzati dai processi nell’atmosfera del Sole, che distorcevano l’apparente abbondanza degli elementi che costituiscono il Sole, perciò li ricalcolò e scoprì che esso era composto quasi interamente da solo due elementi, l’idrogeno e l’elio. Tutti gli altri elementi quali il carbonio, l’ossigeno, il sodio, il ferro che rendevano il Sole così simile alla Terra, formavano solo una minuscola frazione della sua composizione. L’idea venne considerata impossibile e accettata solo quattro anni dopo, quando il direttore di un prestigioso osservatorio (paradossalmente lo stesso uomo che aveva giudicato il lavoro della Payne impossibile) arrivò esattamente alle stessa conclusione attraverso mezzi diversi: la rivelazione della Payne si scoprì essere costante per quasi ogni stella della galassia.

George Gamov, un fisico nucleare russo, cominciò a pensare all’Universo in termini di secondi e di minuti piuttosto che di miliardi di anni, costruì un modello matematico delle primissime fasi dell’Universo e reclutò Ralph Alpher affinché lo aiutasse. A circa 3 minuti dal Big Bang, l’Universo doveva essere stato incredibilmente denso e caldo: in questa fase gli atomi stessi non potevano esistere ma solo le loro parti costituenti; Gamov e Alpher gli diedero il nome Ylem, da una parola inglese antica che vuol dire “materia”. Le proporzioni di idrogeno ed elio previsto dal loro modello combaciavano con quelle misurate nelle stelle: annunciarono i loro risultati in un documento pubblicato nel 1948. Alpher continuò a studiare l’Universo e in particolare su ciò che accadde dopo: paragonò l’Universo in questa fase ad una nube ribollente di elettroni liberi e nuclei atomici, per poi scendere ad una temperatura critica, una temperatura tanto fredda che gli elettroni poterono legarsi ai nuclei di idrogeno ed elio. In questo preciso momento, fu sprigionata la luce che viaggiò libera nell’Universo e Alpher intuì che questa luce è ancora in grado di raggiungerci dopo miliardi di anni: molto debole, molto tenue ma osservabile in tutte le direzioni. Calcolò che l’espansione dell’Universo dovrebbe allungare le lunghezze d’onda di questa luce oltre la gamma dello spettro visibile e dovrebbe arrivare ora come radiazione a microonde. Tuttavia gli oppositori del Big Bang distorcevano e adattavano di continuo le loro teorie per far sì che la loro idea di un Universo eterno e infinito si adeguasse alle nuove osservazioni. La prova definitiva del Big Bang arrivò solo 15 anni dopo grazie a due ingegneri radio, Arno Penzias e Robert Wilson, che nel 1964 lavoravano ai Laboratori Bell negli USA. Quando accesero il loro telescopio notarono che il cielo era saturo di radiazioni a microonde: tutti i corpi caldi emettono radiazioni a microonde, sia che essi provengano dall’atmosfera che dallo strumento stesso e la comunicazione mobile di oggi ne inonda il cielo. Perciò, prima di poter fare delle misurazioni utili, calibrarono la loro antenna a tromba per cercare di ridurre questo rumore. Anche tenendo in conto l’atmosfera e la strumentazione (a quell’epoca non esistevano i cellulari di cui preoccuparsi), rimaneva questo rumore di sottofondo persistente ed irritante di cui non riuscivano a liberarsi, nonostante i tentativi: fu registrato sul loro strumento come una radiazione con temperatura costante di tre gradi sopra lo zero assoluto, che sembrava essere ovunque loro puntassero il loro cornetto acustico celeste. Senza volerlo, Penzias e Wilson si erano imbattuti in quella radiazione prevista, il lampo di luce di Alpher dalla prima evoluzione dell’Universo: ecco finalmente la prova della teoria del Big Bang che, 40 anni dopo essere stata ipotizzata da Lemaître, entrò nella corrente scientifica dominante.

La prima materia iniziò ad esistere quando l’Universo era molto giovane e molto più piccolo e quindi tutta la materia doveva essere confinata in uno spazio molto più piccolo: in quella fase l’Universo era incredibilmente caldo e la densità della sua energia era molto alta. L’LHC ci permette di studiare le proprietà di queste particelle fondamentali: per creare collisioni con energie più di 80 volte maggiori di quelle prodotte da due protoni. Ciò avviene accelerando gli atomi di piombo a cui vengono tolti tutti gli elettroni fino a raggiungere velocità simili a quella della luce e facendoli scontrare. Le collisioni sono così potenti che si formano quark, gluoni e leptoni, particelle che si unirono per formare atomi nel primo milionesimo di secondo dopo il Big Bang. Il plasma di quark e gluoni è uno stadio dell’evoluzione dell’Universo in cui subito prima che i quark vengano intrappolati dai gluoni per creare protoni e neutroni, che a loro volta procedono per formare i nuclei di atomi. Per sviluppare l’energia necessaria, i nuclei di piombo passano attraverso una catena di acceleratori più piccoli raccogliendo gradualmente l’energia finché non vengono finalmente introdotti nel più grande acceleratore della Terra, l’LHC. Il massimo di energia che un fascio può raggiungere è direttamente legata alla dimensione dell’acceleratore e l’LHC ha una circonferenza di 27 chilometri: questo vuol dire che il fascio può raggiungere un’energia pari a 1.000 teraelettronvolt. L’LHC può comprimere tutta quell’energia in uno spazio che è meno di un bilionesimo della dimensione di un singolo atomo: l’energia è concentrata ed è la densità dell’energia che conta.

 

Collisione di particelle all’interno dell’LHC

Studiare queste collisioni ci permette di capire come la materia abbia iniziato ad esistere. Tuttavia, alcuni dei misteri dell’Universo sono  ancora irrisolti: come le quattro forze fondamentali che uniscono la materia (gravità, elettromagnetismo e forze nucleari) sono connesse l’una all’altra; come le particelle che formano la materia si siano condensate in una nebbia di energia; come la massa si sia generata dalla forza che unisce protoni e neutroni e come l’Universo abbia subito un’espansione super veloce in un miliardesimo di secondo per creare la struttura del cosmo.

Nel prossimo articolo sarà trattata l’evoluzione dell’Universo.

                                                                                                                                                                Katia Canonico

Ingegneria Elettronica

Studentessa UNICAL

0
0
0
s2sdefault

L’industria 4.0: la valorizzazione del capitale umano

Finora le rivoluzioni industriali del mondo occidentale sono state tre: nel 1784 con la nascita della macchina a vapore che ha permesso la meccanizzazione della produzione; nel 1870 con il via alla produzione di massa attraverso l’uso sempre più diffuso dell’elettricità, l’avvento del motore a scoppio e l’aumento dell’utilizzo del petrolio come nuova fonte energetica; nel 1970 con la nascita dell’informatica, dalla quale è scaturita l’era digitale destinata ad incrementare i livelli di automazione avvalendosi di sistemi elettronici e dell’IT (Information Technology). Quando tuttavia si parla di Industria 4.0 si intende, pertanto, l’avvento della quarta rivoluzione industriale, tutt’ora in corso, che è rappresentata da un modello di produzione e gestione aziendale basato essenzialmente sull’uso di nuove tecnologie digitali all’interno delle imprese. Secondo una definizione che ne dà il Mise, gli elementi che caratterizzano il fenomeno sono: “connessione tra sistemi fisici e digitali, analisi complesse attraverso Big Data e adattamenti real-time”. In altre parole: utilizzo di macchinari connessi al Web, analisi delle informazioni ricavate della Rete e possibilità di una gestione più flessibile del ciclo produttivo. Le tecnologie abilitanti, citate sempre dal Mise, spaziano dalle stampanti 3D ai robot programmati per determinate funzioni, passando per la gestione di dati in cloud e l’analisi dei dati per rilevare debolezze e punti di forza della produzione. L’industria 4.0 passa per il concetto di Smart Factory che si compone di 3 parti:

Smart production: nuove tecnologie produttive che creano collaborazione tra tutti gli elementi presenti nella produzione, ovvero: collaborazione tra operatore, macchine e strumenti. 


Smart Services: tutte le “infrastrutture informatiche” e tecniche che permettono di integrare i sistemi; ma anche, tutte le strutture che permettono, in modo collaborativo, di integrare le aziende (fornitore – cliente) tra loro e con le strutture esterne (strade, hub, gestione dei rifiuti, ecc.) 


Smart Energy:  tutto questo sempre con un occhio attento ai consumi energetici, creando sistemi più performanti e riducendo gli sprechi di energia secondo i paradigmi tipici dell'Energia sostenibile. 
Il cambiamento che stiamo vivendo ha una portata epocale. L’innovazione, specialmente in un tempo in cui tecnologie rivoluzionarie stanno penetrando sempre più la vita quotidiana, viene quindi vista spesso con diffidenza. Le innovazioni dell’industria 4.0 poiché incentrate sull’automazione e sulla riduzione del contributo umano, sembrerebbero condurre ad una inesorabile riduzione dei posti di lavoro. Tuttavia alle aziende serviranno delle figure specializzate in grado di fare consulenza e di gestire l’interazione tra le nuove tecnologie e il capitale umano dell’impresa. Senza dimenticare i posti di lavoro che si creeranno per gli esperti di sicurezza informatica a livello aziendale. Privacy, protezione dei dati e del personale saranno sempre più importanti e porteranno le aziende a investire sempre di più. D’altro canto restare al palo nella corsa all’innovazione è un rischio che, in un mondo che si evolve con ritmi sempre più serrati e nelle direzioni più varie, le imprese italiane, e ancor più le imprese del mezzogiorno, non possono permettersi di correre. La prospettiva con cui questa trasformazione deve essere vista non è dunque quella di una malsana rivoluzione che porterà alla scomparsa del lavoro umano e lo renderà definitivamente inutile, bensì come un’opportunità di rivalorizzazione del lavoro stesso: sarà la stessa disponibilità di lavoro umano generata dalla scomparsa dei vecchi mestieri a stimolare la capacità di crearne di nuovi. Tutti i grandi cambiamenti tecnologici avvenuti nel passato hanno suscitato perplessità e preoccupazioni sull’impatto che le macchine e i processi di automazione hanno sull’uomo. Le posizioni più scettiche sul tema del rapporto tra industria 4.0 e lavoro umano mettono in luce gli aspetti negativi di questo cambiamento paradigmatico soprattutto con riferimento alla preoccupazione che, l’innovazione dirompente comporti nuove forme di alienazione e nuove forme di disoccupazione tecnologica. Tuttavia, le aziende di oggi, operanti in mercati sempre più turbolenti e in rapido cambiamento, hanno ancora bisogno dell’apporto umano. Se nella vecchia fabbrica l’operaio svolgeva le sue mansioni in maniera noiosa, ripetitiva e parcellizzata, l’azienda di oggi, la fabbrica 4.0, richiede che i lavoratori siano propositivi, partecipativi e coinvolti. I lavoratori di oggi, grazie alle nuove sfide innovative, non vedono ridurre il proprio apporto all’interno dell’azienda, anzi, vedono crescere le proprie mansioni e le proprie responsabilità svolgendo compiti sempre più creativi e interessanti. La quarta rivoluzione industriale non si renderà responsabile del declino del lavoro umano ma darà ad esso nuova luce e nuova linfa creando lavoratori ancora più abili e più capaci: non solo industria 4.0 ma anche lavoratori 4.0. In questo nuovo panorama tecnologico risulta sicuramente fondamentale la formazione dei nuovi professionisti. Occorre pertanto potenziare il legame tra mondo dell’istruzione, università , ricerca e impresa per creare profili coerenti con ciò che il mercato richiede. L’aggiornamento, il rafforzamento, l’adeguamento dei dipendenti per riqualificare diverse professionalità e ridisegnare modalità lavorative deve essere il punto di partenza delle imprese che vogliono vincere la partita della nuova rivoluzione industriale. Formazione continua e costante per fornire competenze  che procedano di pari passo con i cambiamenti della fabbrica intelligente. Una trasformazione che deve riguardare tutti i livelli aziendali, dall’imprenditore all’impiegato, dall’operaio al manager. Accanto alle competenze digitali, alla capacità di lavorare con i dati , saperli leggere, analizzare e classificarli imprescindibili sono le skill comunicative, di creatività, di leadership, di relazione. Le scuole hanno infatti iniziato ad adattarsi alla nuova realtà creando percorsi di alternanza “scuola-lavoro”. Occorre infatti promuovere nella scuola e nel mondo del lavoro il concetto di competenze che devono avviarsi nel contesto scolastico e poi crescere e arricchirsi durante tutta la vita attraverso un apprendimento continuo consentendo di seguire e partecipare ai cicli di continuo cambiamento tecnologico, economico e sociale che caratterizzano sempre più l’evoluzione delle attività lavorative e le condizioni di vita di ciascuno.

Va in particolare sottolineata l’importanza che negli istituti tecnici e nei licei si sviluppino orientamenti verso l’ottenimento di competenze certificate che consentano una effettiva employability dei giovani aprendo le porte al lavoro 4.0, in grado di affrontare la grande sfida della diffusione delle tecnologie digitali in tutte le attività.

Tuttavia non bisogna pensare che l’avvicinamento dei percorsi formativi alle esigenze professionali del lavoro significa cambiare la missione centrale tradizionale della scuola nella formazione culturale e civile dei giovani, ma affiancare ad essa anche la preparazione ad attività professionali, soprattutto oggi in cui le tecnologie digitali e l’intelligenza artificiale consentono di aprire strade nuove alla creatività ed al lavoro di ciascuno.

La scuola deve pertanto rappresentare l’ambiente nel quale l’innovazione prende vita, partendo dalla didattica digitale che deve essere diffusa su tutto il territorio, evitando che si creino ‘periferie’ altrimenti destinate ad essere marginalizzate rispetto alla nuova economia digitale.

Bruno Meta

0
0
0
s2sdefault

Argomento