Scienze ed altri saperi

Il Il Reologo, questo sconosciuto. Parte II di Oraldo Paleologo°

Abstract - Nello scorso numero era stata introdotta, in linee generali, la definizione di Reologia e dell’ambito sperimentale in cui può essere applicata. In questo breve articolo vengono riprese alcune nozioni fondamentali relative alle classiche definizioni dei termini solido e liquido, ai loro limiti, e a vari tentativi di superamento delle stesse. Infine, verranno illustrati i principi di funzionamento dei reometri, gli strumenti preposti alla misura delle proprietà dei materiali e allo studio della loro fenomenologia. 

* Ingegnere chimico - Dottore in Scienza della Vita

Quest’estate, nelle ore più tormentate dal caldo della giornata, sdraiato a mo’ di lucertola sotto il sole cocente, mi è capitato di assistere ad una scena simpatica, ma al contempo interessante, durante la quale un’ingenua bambina di sei o sette anni, per gioco, solleva la sua dolce mano nell’aria e la sbatte violentemente sull’acqua del mare. “Ahia! Papà mi sono fatta male!”. Il povero papà, cercando al contempo di consolare e catechizzare la sua bambina, le dice:” Amore, se picchi l’acqua ti fai male!”. La bambina, alquanto perplessa, gli chiede:” Ma perché se la picchio mi faccio male, e quando nuoto no? È sempre acqua, papà!”. Di fronte a questa sferzante domanda, come quelle che Democrito avrebbe potuto rivolgere a Platone, il povero papà non seppe rispondere, e per mascherare questa sua, del tutto legittima, incapacità, fece finta di salutare un suo amico, e la bambina rimase con i suoi dubbi amletici irrisolti. In effetti la fanciulla, nella sua ingenua curiosità, aveva sollevato un problema di non poco conto e al quale non è affatto semplice trovare una soluzione, dacché la questione coinvolge diversi livelli di lettura. Un primo punto riguarda cosa si intende realmente quando si pronunciano le parole “solido” e “liquido”. Di norma, la parola “solido” si riferisce ad un qualcosa che ha forma e volume proprio, definito, e la cui deformazione è descrivibile a partire da un riferimento ben preciso, quale può essere lo stato non deformato. Con la parola “liquido”, invece, di norma si intende un qualcosa che non ha forma e volume propri, e di conseguenza non è possibile individuare un riferimento rispetto al quale misurare la deformazione. Per citare solo qualche esempio afferente alla percezione comune, si può affermare che un diamante, una lastra di acciaio, un elastico, sono considerati come “solidi”, mentre l’acqua, la benzina, il latte, vengono considerati “liquidi”. Al solido viene associata la percezione e/o il concetto della fermezza, mentre al liquido quelle pertinenti il fluire, lo scorrere. Queste associazioni, a prescindere se le parole seguano logicamente le idee o viceversa, ci portano a confrontarci con queste due “modalità” macroscopiche della materia in maniera molto differente. Ad esempio: un solido lo afferriamo, un liquido no; se picchiamo con la testa al muro, ci facciamo male, se accostiamo il volto all’acqua che scorre dal lavandino ogni mattina, no. Abbiamo dunque individuato un primo tassello: nel linguaggio, anello di congiunzione tra noi e il mondo, esistono due parole, solido e liquido, che ci permettono di individuare nella materia delle caratteristiche precise, e di agire conseguentemente. I concetti connessi alle parole vengono poi tradotti, in questo caso, in equazioni matematiche che costituiscono altrettanti modelli attraverso i quali collegare, qualitativamente e quantitativamente, lo sforzo necessario a far muovere e deformare un corpo con la sua deformazione o con la velocità con cui si deforma. Pertanto, se si suppone che un corpo sia indeformabile, si avrà il modello di corpo rigido (ad esempio, il diamante); se invece si suppone che la deformazione sia misurabile a partire da un riferimento, si avrà il modello di solido elastico (una barretta di acciaio, o un elastico per capelli); infine, se si suppone che lo sforzo sia proporzionale alla velocità con cui si deforma un corpo, si avrà il modello di fluido viscoso (l’acqua che scorre in un tubo). E perché allora dare uno schiaffo sull’acqua equivale a darlo su una lastra di cemento?
Facciamo un passo avanti: e uno yogurt? Come lo definiamo, solido o liquido? E il bitume? E un dentifricio? Qui interviene di diritto il reologo, il cui mestiere è quello di trovare equazioni di modello per materiali complessi, non ascrivibili ai classici comportamenti di solido e liquido. E ma qui si pone un altro problema. Come faccio a “nominare” un qualcosa che non è né solido né liquido, non avendo le parole atte all’uopo? La questione è che le parole sono sempre troppo poche. D’altra parte, se non si riesce a decifrare neanche il comportamento dell’acqua, che a volte si comporta da liquido e altre da solido, evidentemente la questione afferisce a meandri conoscitivi profondi, nei quali si interfacciano questioni epistemologiche, fenomenologiche, linguistiche e fisiche. Inoltre: come trovare modelli matematici per materiali il cui comportamento non corrisponde né a quello del solido elastico né a quello del fluido viscoso? Classicamente, si cerca di risolvere il problema parlando di “viscoelasticità”, andando quindi a “sommare” il contributo elastico e quello viscoso. Ma questo pone problematiche epistemologiche e fisiche di non poco conto, la cui discussione esula dagli scopi di questa introduzione. Questi modelli funzionano bene per alcuni materiali, quali i polimeri, meno per altri, quali gli alimenti. Ed è soprattutto nel campo alimentare che la reologia può svolgere un ruolo fondamentale per la progettazione di alimenti nuovi e funzionali. Oggigiorno, nel panorama mondiale sono emerse nuove esigenze nutrizionali, dovute a malattie dell’apparato gastrointestinale, a convinzioni etiche o religiose, alla scelta di stili di vita. Pertanto, la domanda di nuove tipologie di alimenti è in continua crescita. Si pensi ai cibi senza glutine, agli alimenti proteici e così via. Un alimento siffatto, per essere competitivo sul mercato, non può soddisfare soltanto requisiti di tipo nutrizionale, ma deve poter competere con gli alimenti tradizionali dal punto di vista sensoriale: gusto, olfatto, tatto e vista, cui corrispondono sapore, odore e consistenza. Per investigare le proprietà fisiche di un sistema alimentare, in laboratorio si usano i “reometri”. Sono degli strumenti che permettono di studiare come un corpo si deforma, in funzione dello sforzo o della velocità di deformazione imposta. Al primo caso corrisponde un “reometro a sforzo controllato”, nel quale si impone la forza e si misura la deformazione. Viceversa, nel secondo caso, per un “reometro a deformazione controllata”, si impone la deformazione e si calcola lo sforzo necessario per ottenerla. Un classico reometro è costituito dalle seguenti componenti: sulla parte inferiore vi è un piatto, su cui si adagia il materiale da studiare; nella parte superiore, la testa del reometro, è possibile posizionare un componente metallico (avente geometria differente a seconda delle caratteristiche del materiale) e attraverso un braccio meccanico si fa scendere tale componente in prossimità del piatto inferiore in modo da confinare il materiale in uno spazio ristretto, di pochi millimetri di spessore. Nella parte superiore (o inferiore), è presente un trasduttore, componente fondamentale capace di trasformare impulsi elettrici in impulsi meccanici, consentendo così la misurazione delle proprietà del materiale. Attraverso un software, si possono impostare le condizioni e la tipologia di misura da effettuare. Di norma, ad un reometro è allegato un sistema “peltier”, che consente di controllare la temperatura del materiale e di poter quindi studiare il comportamento del materiale a diverse temperature, o di impostare una rampa termica e investigare la fenomenologia del materiale durante un trattamento termico. Il software restituisce infine i valori numerici dei parametri materiali di interesse, come ad esempio il modulo elastico, il modulo viscoso, la viscosità etc. Pertanto, è possibile confrontare le caratteristiche reologiche di un alimento convenzionale con quelle di un prodotto innovativo, e di poter progettare (letteralmente) le proprietà di quest’ultimo al fine di renderlo appetibile sul mercato. Si tratta quindi di un contributo fondamentale, quello offerto dalla reologia, per far sì che le persone si indirizzino verso alimenti salutari e funzionali, senza rinunciare al sapore e alla fruibilità di un cibo tradizionale, componente importante per il benessere mentale e fisico!
Ma, quindi, perché se do uno schiaffo all’acqua mi faccio male, e se mi lavo le mani, no? Un indizio: è una questione di tempo!

Il REOlogo, questo sconosciuto di M.F. Oraldo Paleologo

 Abstract: la figura del reologo è sconosciuta ai più, perché riguarda una nicchia di studiosi e scienziati che si occupano, in senso lato, dello scorrimento dei materiali complessi, sia dal punto vista teoretico che industriale. Questo articolo vuole esser d’aiuto alla conoscenza di questa disciplina e uno spunto di riflessioni sulle questioni che la riguardano. Dopo una digressione sulla genesi di questa branca della fisica, lo scritto si focalizza sulle opportunità di lavoro di giovani professionisti nell’industria alimentare.

Fake news: processi e dinamiche psicologiche

Abstract

«Le euristiche o processi mentali intuitivi,  utilizzano strategie veloci,  che sono spesso alla base dei bias cognitivi o errori sistematici di giudizio […] ciò che rende questi stili di pensiero disfunzionali non è tanto la loro presenza, ma la loro rigidità e inflessibilità, specialmente se ci conduce ad interpretare gli eventi,  e noi stessi, in modo irrealisticamente negativo»[1].

Il declino della verità

Discontinuità e liquidità sembrano essere ormai i caratterizzanti assoluti dei sistemi mediatici che abitiamo. Abbiamo tutti scelto di vivere in un mondo interconnesso, dove ciascuno/a di noi produce quantità esorbitanti di dati per poi riversarli sul web e sui social media e da cui, a nostra volta, assorbiamo informazioni prodotte da altri. «In queste interconnessioni, la maggior parte delle informazioni che circolano crea uno spazio cognitivo permanente che possiamo definire content continuum dove ormai viviamo e interagiamo per fare qualsiasi cosa.»[2]

Uno sguardo sull'universo: gli anni che sconvolsero la fisica

UNO SGUARDO SULL’UNIVERSO: GLI ANNI CHE SCOLVOLSERO LA FISICA

di Katia Canonico

Abstract - Poco più di cent’anni fa, gli scienziati pensavano alla vita dell’Universo come qualcosa di eterno, infinito e stabile, senza inizio e senza fine e ciò rendeva impossibile mettere a fuoco la domanda circa le origini dell’Universo. Ma ben presto le cose cambiarono e tutt’oggi molte domande restano senza risposta. È possibile risalire alle origini.

Il 14 Settembre 2015 alle 11:50:45 ora italiana, è stata rilevata un’onda gravitazionale prodotta più di un miliardo di anni fa da un sistema di due buchi neri, distanti da noi più di un miliardo di anni luce: questi due oggetti hanno orbitato per milioni di anni l’uno intorno all’altro avvicinandosi sempre di più (la loro orbita si è contratta a causa della perdita di energia dovuta alle loro emissioni di onde gravitazionali), acquistando sempre più velocità (circa la metà della velocità della luce) e alla fine si sono fusi per formare un unico buco nero di massa ancora maggiore, producendo in pochi decimi di secondo 50 volte la luce emessa da tutte le stelle presenti nell’Universo. Nel calcolo delle masse si è potuto vedere che dalla massa iniziale fino alla massa dell’oggetto formato alla fine risultano tre masse solari mancanti che si sono convertite in energia gravitazionale secondo la famosa equazione di Albert Einstein E=mc2.

Ed è proprio da Albert Einstein che nel 1915 arrivò la svolta decisiva nella comprensione dell’Universo, quando pubblicò la teoria della relatività generale, superando il concetto newtoniano di spazio, tempo e gravitazione: secondo Newton lo spazio è qualcosa di rigido e i corpi si muovono attirati da quella forza gravitazionale che li porta gli uni verso gli altri; al contrario, secondo Einstein, lo spazio non è un’entità rigida ma viene deformato sotto la forza di una massa, causando così il movimento dei corpi celesti. Tuttavia non è solo lo spazio ad essere influenzato dalla distribuzione di massa, bensì anche lo scorrere del tempo: orologi posti in campi gravitazionali più forti, battono i secondi più lentamente, portando così alla creazione di una nuova entità, lo spazio-tempo. La relatività generale è presente nella nostra vita quotidiana più di quanto si pensi: in ogni cellulare è presente il GPS (Global Positioning System) che funziona tramite una comunicazione tra l’oggetto a terra e i satelliti. Siccome il tempo scorre diversamente sulla Terra e sui satelliti, senza le correzioni della relatività generale non osserveremo la grande precisione che questo sistema riesce a darci nel posizionamento.

Fu Einstein, nel 1916, a predire l’esistenza delle onde gravitazionali. Il campo gravitazionale di un buco nero è così forte che qualunque oggetto (compresa la luce), avvicinandosi sufficientemente e superando quello che si chiama orizzonte degli eventi, non sarebbe più in grado di sottrarsi alla fortissima gravità.

Ma la proposta iniziale di misurare le onde gravitazionali con la luce arrivò negli anni ’70 da Rainer Weiss e poi portata avanti da Kip Thorne, proposta che si trasformò in un osservatorio, l’osservatorio LIGO; mentre ad Adalberto Giazotto e Alain Brillet fu proposta la costruzione di un rivelatore analogo, il rivelatore VIRGO che attualmente è installato presso l’European Gravitational Observatory a Cascina, vicino Pisa. Lo strumento che si usa per misurare questa onda gravitazionale è l’interferometro di Michelson, composto da un laser, alcuni specchi di quarzo purissimo e un fotorivelatore che misura la quantità di luce che vi incide sopra (sono oggetti sospesi con filtri sofisticati per evitare che i disturbi sismici del terreno nascondano completamente la piccolissima vibrazione che si va a misurare). Nel tubo in cui viaggia il fascio laser c’è il vuoto perché la propagazione del laser non può essere disturbata dagli urti con le molecole dell’aria. Il fascio laser raggiunge uno specchio che separa il fascio in due componenti che viaggiano lungo due bracci fra loro perpendicolari (i bracci sono lunghi alcuni chilometri perché la loro lunghezza aumenta l’effetto dell’onda gravitazionale che si va a misurare), raggiungono gli specchi alla fine di questi bracci, tornano indietro, si ricombinano e si sovrappongono. L’arrivo di un’onda gravitazionale cambia la distanza tra i bracci e di conseguenza di queste variazioni sul fotorivelatore un’alternanza di luce e di buio, segno di una possibile interazione con un’onda gravitazionale: il segnale misurato è stato lo spostamento di uno di questi specchi, un segnale piccolissimo, dell’ordine di 10-18 metri.

Interferometro di Michelson

Nella prima parte del 20esimo secolo, era ben noto che il nostro sistema solare giacesse all’interno di una galassia, la Via Lattea: ogni singola stella che vediamo in cielo ad occhio nudo fa parte di essa e fino agli anni ’20 , si riteneva che questa singola galassia rappresentasse l’intera estensione dell’Universo, oltre il quale c’era solo il vuoto. Eppure vi erano anche oggetti appena distinguibili ad occhio nudo che sembravano diversi, uno dei più notevoli era Andromeda: nebulose simili (vennero chiamate nebulose per via della loro natura tenue e sottile, come una nuvola, difatti “nebulosa” deriva dalla parola latina per nuvola) a quest’ultima vennero trovate sparse in giro per tutto il cielo notturno. I telescopi rilevarono che molte di esse erano ben più complesse di semplici nuvole di gas interstellare, sollevando così due possibilità: questi oggetti erano luoghi in cui nascevano le stelle e quindi risiedevano all’interno della nostra galassia, oppure erano galassie di per sé situate al di fuori della Via Lattea? Le implicazioni di questa seconda possibilità furono enormi, rimodellando così la conoscenza sulla dimensione dell’Universo: nel 1923, l’astronomo Edwin Hubble studiò la nebulosa Andromeda, lavorando con quello che allora era il telescopio più grande al mondo, il telescopio Hooker da 2,5 metri, situato all’Osservatorio di Monte Wilson sulla cima delle alte montagne della Sierra che sovrastavano Los Angeles e la California (al giorno d’oggi il telescopio più grande esistente è il GTC, con uno specchio primario di oltre 10 metri di diametro). La prima stella che Hubble notò era una stella che possedeva una luminosità variabile, una Variabile Cefeide: il campionario stellare delle Variabili Cefeidi sono di fondamentale importanza per gli astronomi, in quanto grazie alla loro luminosità è possibile calcolarne la distanza. Ed è proprio ciò che fece Hubble misurandone la brillantezza, stimandone il periodo (cioè il tempo in giorni che va da un apice di luminosità all’altro, che secondo Hubble era di 31,415 giorni) e annotando una curva: Hubble capì che Andromeda si trovava a 900.000 anni luce di distanza, il che la rendeva l’oggetto più remoto mai registrato.

Nel 1917 Einstein prese la sua teoria della relatività generale e l’applicò all’intero Universo: l’attrazione gravitazionale di tutta la materia dell’Universo avvicinerebbe tutti gli elementi nel cosmo, iniziando ad accelerare lentamente, ma in modo graduale, finché la gravità alla fine, porterà al collasso dell’Universo stesso. Ma Einstein credeva che l’Universo fosse eterno e statico e di certo non instabile o che rischiasse di collassare su se stesso, sebbene le sue equazioni sembravano dimostrare il contrario: per tenere tutto in equilibrio, aggiunse alla sua equazione il Λ o la Costante Cosmologica, una sorta di forza di antigravità inventata che agisce contro la normale gravità. Non aveva prove di ciò ma più tardi ammise che la Costante Cosmologica serviva al solo scopo di una distribuzione quasi statica della materia. Al contrario, Georges Lemaître descriveva un Universo tutt’altro che statico, che si espandeva con galassie che sfrecciavano l’una lontana dall’altra; Lemaître colse le implicazioni di tutto ciò: andando a ritroso nel tempo dedusse che ci dovesse esser stato un momento in cui l’intero Universo si restrinse in un volume minuscolo, qualcosa che soprannominò l’atomo primigenio. Ben presto, in un incontro con Lemaître, Einstein scartò l’idea di un Universo dinamico…fino a quando nel 1928 Edwin Hubble, dopo aver dimostrato l’esistenza di galassie al di fuori della nostra, iniziò a misurare la velocità a cui si muovevano queste galassie rispetto alla Terra, utilizzando l’effetto redshift: quando la fonte di luce si avvicina, la lunghezza d’onda osservata è compressa verso la parte viola o blu dello spettro, ma se la fonte si allontana da noi la lunghezza d’onda si allunga verso la parte rossa dello spettro. Nell’effetto redshift, maggiore è la velocità a cui l’oggetto si allontana, maggiore è il redshift. Hubble doveva misurare la luce media che veniva dalla galassia per poter ottenere uno spettro e calcolare così il redshift. Ma se l’Universo fosse eruttato da un singolo punto, da dove proveniva tutta la materia? La teoria del Big Bang doveva fornire una spiegazione alla formazione della materia stessa. Gli astronomi andarono alla ricerca degli elementi più comuni tramite un telescopio solare: trovarono ferro, idrogeno, ossigeno, magnesio. Cecilia Payne aveva studiato all’università di Cambridge, non le fu permesso ottenere una laurea in quanto donna, così per continuare a studiare dovette lasciare l’Inghilterra per trasferirsi in America; fu lì che svelò la composizione dell’Universo: intuì che gli spettrografi erano influenzati dai processi nell’atmosfera del Sole, che distorcevano l’apparente abbondanza degli elementi che costituiscono il Sole, perciò li ricalcolò e scoprì che esso era composto quasi interamente da solo due elementi, l’idrogeno e l’elio. Tutti gli altri elementi quali il carbonio, l’ossigeno, il sodio, il ferro che rendevano il Sole così simile alla Terra, formavano solo una minuscola frazione della sua composizione. L’idea venne considerata impossibile e accettata solo quattro anni dopo, quando il direttore di un prestigioso osservatorio (paradossalmente lo stesso uomo che aveva giudicato il lavoro della Payne impossibile) arrivò esattamente alle stessa conclusione attraverso mezzi diversi: la rivelazione della Payne si scoprì essere costante per quasi ogni stella della galassia.

George Gamov, un fisico nucleare russo, cominciò a pensare all’Universo in termini di secondi e di minuti piuttosto che di miliardi di anni, costruì un modello matematico delle primissime fasi dell’Universo e reclutò Ralph Alpher affinché lo aiutasse. A circa 3 minuti dal Big Bang, l’Universo doveva essere stato incredibilmente denso e caldo: in questa fase gli atomi stessi non potevano esistere ma solo le loro parti costituenti; Gamov e Alpher gli diedero il nome Ylem, da una parola inglese antica che vuol dire “materia”. Le proporzioni di idrogeno ed elio previsto dal loro modello combaciavano con quelle misurate nelle stelle: annunciarono i loro risultati in un documento pubblicato nel 1948. Alpher continuò a studiare l’Universo e in particolare su ciò che accadde dopo: paragonò l’Universo in questa fase ad una nube ribollente di elettroni liberi e nuclei atomici, per poi scendere ad una temperatura critica, una temperatura tanto fredda che gli elettroni poterono legarsi ai nuclei di idrogeno ed elio. In questo preciso momento, fu sprigionata la luce che viaggiò libera nell’Universo e Alpher intuì che questa luce è ancora in grado di raggiungerci dopo miliardi di anni: molto debole, molto tenue ma osservabile in tutte le direzioni. Calcolò che l’espansione dell’Universo dovrebbe allungare le lunghezze d’onda di questa luce oltre la gamma dello spettro visibile e dovrebbe arrivare ora come radiazione a microonde. Tuttavia gli oppositori del Big Bang distorcevano e adattavano di continuo le loro teorie per far sì che la loro idea di un Universo eterno e infinito si adeguasse alle nuove osservazioni. La prova definitiva del Big Bang arrivò solo 15 anni dopo grazie a due ingegneri radio, Arno Penzias e Robert Wilson, che nel 1964 lavoravano ai Laboratori Bell negli USA. Quando accesero il loro telescopio notarono che il cielo era saturo di radiazioni a microonde: tutti i corpi caldi emettono radiazioni a microonde, sia che essi provengano dall’atmosfera che dallo strumento stesso e la comunicazione mobile di oggi ne inonda il cielo. Perciò, prima di poter fare delle misurazioni utili, calibrarono la loro antenna a tromba per cercare di ridurre questo rumore. Anche tenendo in conto l’atmosfera e la strumentazione (a quell’epoca non esistevano i cellulari di cui preoccuparsi), rimaneva questo rumore di sottofondo persistente ed irritante di cui non riuscivano a liberarsi, nonostante i tentativi: fu registrato sul loro strumento come una radiazione con temperatura costante di tre gradi sopra lo zero assoluto, che sembrava essere ovunque loro puntassero il loro cornetto acustico celeste. Senza volerlo, Penzias e Wilson si erano imbattuti in quella radiazione prevista, il lampo di luce di Alpher dalla prima evoluzione dell’Universo: ecco finalmente la prova della teoria del Big Bang che, 40 anni dopo essere stata ipotizzata da Lemaître, entrò nella corrente scientifica dominante.

La prima materia iniziò ad esistere quando l’Universo era molto giovane e molto più piccolo e quindi tutta la materia doveva essere confinata in uno spazio molto più piccolo: in quella fase l’Universo era incredibilmente caldo e la densità della sua energia era molto alta. L’LHC ci permette di studiare le proprietà di queste particelle fondamentali: per creare collisioni con energie più di 80 volte maggiori di quelle prodotte da due protoni. Ciò avviene accelerando gli atomi di piombo a cui vengono tolti tutti gli elettroni fino a raggiungere velocità simili a quella della luce e facendoli scontrare. Le collisioni sono così potenti che si formano quark, gluoni e leptoni, particelle che si unirono per formare atomi nel primo milionesimo di secondo dopo il Big Bang. Il plasma di quark e gluoni è uno stadio dell’evoluzione dell’Universo in cui subito prima che i quark vengano intrappolati dai gluoni per creare protoni e neutroni, che a loro volta procedono per formare i nuclei di atomi. Per sviluppare l’energia necessaria, i nuclei di piombo passano attraverso una catena di acceleratori più piccoli raccogliendo gradualmente l’energia finché non vengono finalmente introdotti nel più grande acceleratore della Terra, l’LHC. Il massimo di energia che un fascio può raggiungere è direttamente legata alla dimensione dell’acceleratore e l’LHC ha una circonferenza di 27 chilometri: questo vuol dire che il fascio può raggiungere un’energia pari a 1.000 teraelettronvolt. L’LHC può comprimere tutta quell’energia in uno spazio che è meno di un bilionesimo della dimensione di un singolo atomo: l’energia è concentrata ed è la densità dell’energia che conta.

 

Collisione di particelle all’interno dell’LHC

Studiare queste collisioni ci permette di capire come la materia abbia iniziato ad esistere. Tuttavia, alcuni dei misteri dell’Universo sono  ancora irrisolti: come le quattro forze fondamentali che uniscono la materia (gravità, elettromagnetismo e forze nucleari) sono connesse l’una all’altra; come le particelle che formano la materia si siano condensate in una nebbia di energia; come la massa si sia generata dalla forza che unisce protoni e neutroni e come l’Universo abbia subito un’espansione super veloce in un miliardesimo di secondo per creare la struttura del cosmo.

Nel prossimo articolo sarà trattata l’evoluzione dell’Universo.

                                                                                                                                                                Katia Canonico

Ingegneria Elettronica

Studentessa UNICAL

L'informazione tra scienza, tecnologia e arte

Dopo le tre avanguardie storiche, futurismo dadaismo e surrealismo, il racconto artistico dell'innovazione ha perso da tempo non solo definitivamente il suo statuto di rappresentare un qualsiasi universo che sia oggettivo per tutti, ma ha anche accantonato parte della singolarità di alcuni fenomeni ottici, fisici o psichici unici, per far emergere meglio i tanti universi che si relazionano  in un hic et nunc (qui ed ora) attraverso i nuovi valori dinamici, linguistici e cognitivi che sono ormai raccordati in modo relativo alle scelte che fa un osservatore o un narratore-artista.

L'artista, in effetti, dall'inizio del Novecento dopo aver messo in discussione la tecnica della rappresentazione, ha ravvisato limiti anche nei suoi strumenti del rappresentare, e con essi ha sollevato dubbi sul modello del suo narrare per mezzo sia dell'espressione e sia della propria tecnica artistica, fino a gettare ombre sui fondamenti del suo stesso linguaggio.

L’industria 4.0: la valorizzazione del capitale umano

Finora le rivoluzioni industriali del mondo occidentale sono state tre: nel 1784 con la nascita della macchina a vapore che ha permesso la meccanizzazione della produzione; nel 1870 con il via alla produzione di massa attraverso l’uso sempre più diffuso dell’elettricità, l’avvento del motore a scoppio e l’aumento dell’utilizzo del petrolio come nuova fonte energetica; nel 1970 con la nascita dell’informatica, dalla quale è scaturita l’era digitale destinata ad incrementare i livelli di automazione avvalendosi di sistemi elettronici e dell’IT (Information Technology).

Influenza dei campi elettromagnetici sul corpo umano

La connessione alla rete Internet nel mondo è in continua crescita. In particolare assistiamo all’uso sempre più intensivo di dispositivi mobili. Ad esempio le indagini statistiche condotte da “We Are Social” assieme a “Hootsuite” [1] a livello mondiale hanno raccolto, tra gli altri, i dati riportati in figura.

Come si può notare gli utenti che fanno uso di un dispositivo mobile per il collegamento sono più di 5 miliardi in tutto il mondo. Sempre secondo questa indagine la crescita mondiale relativa all’uso dei dispositivi mobili è del 4%, pari a più di 200 milioni di dispositivi all’anno. In particolare in Italia, a Gennaio 2018, circa  49 milioni di utenti usano un dispositivo mobile per collegarsi ad Internet, ovvero circa l’83% della popolazione attiva.

 

Com’è noto il collegamento di un dispositivo mobile, ovvero uno smartphone o altro device facente uso di una scheda telefonica o tecnologia Wi-Fi, alla rete Internet, si basa sui campi elettromagnetici. Questo è vero anche per le normali telefonate, anzi a maggior ragione in quanto, di solito, usiamo il telefonino poggiandolo in prossimità dell’orecchio.

 

Pertanto si impone una riflessione sulla eventuale pericolosità dei campi elettromagnetici nella telefonia mobile.

La questione andrebbe affrontata sotto due diversi punti di vista:

1. esposizione ai campi e.m. dovuti alle antenne disposte nei diversi punti degli insediamenti urbani

2 . esposizione al campo e.m. del dispositivo mobile che stiamo usando

Gli effetti e le relative analisi sono infatti diversi nei due casi. Nel caso delle antenne il nostro corpo, normalmente, è esposto interamente alla radiazione ma a distanze ragguardevoli. Nel caso degli smartphone invece si è a diretto contatto con il dispositivo.

Procediamo quindi con ordine cercando di comprendere, senza troppi tecnicismi:

  1. cosa è un campo elettromagnetico e come sia possibile che questo realizzi un collegamento a distanza
  2. quali sono i parametri utilizzati per l’analisi del rischio dovuto all’esposizione dei campi e.m. (che i costruttori di telefonini devono obbligatoriamente riportare)
  3. quali sono i risultati degli studi fino ad ora condotti sugli effetti dei campi e.m. sul corpo umano
  4. quali accorgimenti possiamo eventualmente prendere per limitare gli effetti dei campi e.m.

Cos’è un campo elettromagnetico

Si tratta di due onde, una dovuta al campo elettrico e l’altra al campo magnetico, che, se la frequenza di emissione è sufficientemente elevata, hanno la straordinaria proprietà di viaggiare contemporaneamente nello spazio. L’altra caratteristica fondamentale è che tale campo può contenere informazioni, le quali vengono immesse attraverso una tecnica detta modulazione e rilevate attraverso l’azione opposta di demodulazione. Quindi di fatto un campo elettromagnetico trasmette informazioni.

E fin qui tutto molto bello. Il problema è che le onde radio, ovviamente, interagiscono con la materia circostante e, nel caso in cui la materia in questione sia il nostro corpo, sorge il legittimo dubbio che questo possa venire in qualche modo danneggiato.

Diciamo subito che i campi elettromagnetici cui siamo esposti, non sono di sola origine artificiale come possiamo notare dal seguente schema [2].

Nella figura è anche evidenziata la tipica classificazione in base alla frequenza di emissione ovvero secondo la lunghezza d’onda della radiazione. Per coloro che fossero più avvezzi alla fisica o alla matematica ricordiamo la nota relazione  dove c=velocità della luce, f=frequenza, 入=lunghezza d’onda.

Osservando lo schema possiamo subito fare la seguente (in parte tranquillizzante) osservazione: le onde radio usate nella telefonia mobile sono NON ionizzanti, cioè non provocano una trasformazione delle cellule con cui vengono a contatto ma “solo” la loro oscillazione con conseguente riscaldamento dei tessuti. Questo in effetti è il principio di funzionamento di un forno a microonde: cuociamo i cibi alterandone poco le caratteristiche. Resta ovviamente da chiarire se questo effetto sia nocivo per l’uomo nel caso dell’uso dello smartphone. Studi recenti, inoltre, sembrano metterne in dubbio la natura non ionizzante.

Parametri per lo studio degli effetti dei campi e.m. sul corpo umano

 Consideriamo prima il caso dell’esposizione al campo e.m. prodotto da un’antenna. SI usa in questo caso la cosidetta approssimazione di “campo lontano” secondo la quale il campo elettrico ed il campo magnetico sono assimilabili ad onde piane le cui intensità sono legate dalla relazione E/H = 377.

Normalmente viene misurato il solo campo elettrico [V/m] dato che gli effetti del campo magnetico si possono ricavare usando la formula precedente.
Per quanto riguarda l’uso dello smartphone, dato che non vale più l’approssimazione di campo lontano e la relazione tra campo elettrico e magnetico è più complessa della semplice proporzionalità, si usa invece una grandezza che dipende dalla rapidità con cui il tessuto investito dalla radiazione si scalda, il SAR (Specific Absorption Rate) [W/kg]:

A riguardo facciamo due osservazioni. La prima concerne il metodo di misura del SAR. Evidentemente sarebbe impossibile determinare tale grandezza applicando direttamente la definizione in quanto la misura risulterebbe dannosa per il tessuto in questione. Si usa in realtà un’altra definizione correlata direttamente con la potenza emessa dal dispositivo misurabile senza pericolo per il corpo umano. La seconda è che, come già accennato, i costruttori devono comunicare il SAR del dispositivo mobile in modo che l’utente ne sia a conoscenza.

Risultati degli studi

 Studi per evidenziare eventuali effetti non termici (cioè ionizzanti e quindi potenzialmente più pericolosi) del campo e.m. in zone poste in prossimità di antenne sono stati condotti fin dagli anni ottanta, inizialmente considerando impianti di tipo radiotelevisivo, poi anche per la telefonia mobile. Famoso in Italia lo studio sulle antenne di Radio Vaticana. Si discusse molto dei risultati di tale studio in quanto, sebbene evidenziassero “un eccesso di rischio di leucemia in prossimità della stazione radio e un decremento del rischio a distanza crescente dagli impianti”, come per altri studi analoghi, “i risultati delle analisi epidemiologiche non forniscono però evidenze conclusive circa una possibile associazione causale tra esposizione a RF e aumento del rischio di leucemie”. [3]

In particolare il campione statistico non era sufficientemente significativo per numero di casi esaminati e per le metodologie usate nell’analisi che non tenevano conto di diversi fattori significativi dal punto di vista statistico e tecnico.

Anche studi più recenti sulle celle radio base per telefonia mobile non hanno evidenziato con sufficiente determinazione la corrispondenza tra esposizione a campi e.m. (nei limiti consentiti dalla legge) ed insorgenza di patologie.[4]

Pertanto:

“Sulla base dei risultati della ricerca scientifica ad oggi disponibili (2011 ndr), l’Associazione Internazionale per la Ricerca sul Cancro dell’Organizzazione Mondiale della Sanità, ovvero IARC (International Association for Reasearch on Cancer), ha classificato i campi elettromagnetici a radiofrequenza quali “possibili cancerogeni” (classe IIB). Tale classificazione si riferisce, in particolare, a limitate evidenze di cancerogenicità dell’esposizione a telefoni mobili. Le evidenze si considerano limitate in quanto, anche se rendono credibile un’associazione causale tra esposizione e induzione di tumori, non permettono di escludere la presenza di fattori casuali che inficino l’attendibilità di tale associazione”. [2]

 Si riporta qui, per completezza, la classificazione dello IARC:

  • Group 1:   Carcinogenic to humans.
  • Group 2A: Probably carcinogenic to humans.
  • Group 2B: Possibly carcinogenic to humans.
  • Group 3:   Not classifiable as to carcinogenicity in humans.

Studi più recenti tuttavia hanno innalzato la soglia di attenzione sull’importante problema relativo ai pericoli derivanti dall’esposizione al campo e.m. con particolare riferimento alla telefonia mobile. [5] Uno studio dell’Istituto Ramazzini di Bologna, che risale a Gennaio 2017 ha evidenziato la correlazione tra le onde radio emesse da ripetitori (campo lontano) per telefonia mobile, simulando l’esposizione per valori tipici stimati in Italia, e l’insorgenza di tumori anche entro i limiti finora ritenuti sicuri. Tale studio è stato condotto con valori molto più bassi rispetto ad un altro analogo condotto negli Stati Uniti (NTP, 2005) nel quale si volevano stabilire gli effetti dell’uso del cellulare per le conversazioni (campo vicino).

“Il nostro studio conferma e rafforza i risultati del National Toxicologic Program americano … sulla base dei risultati comuni, riteniamo che l’Agenzia Internazionale per la Ricerca sul Cancro (IARC) debba rivedere la classificazione delle radiofrequenze, finora ritenute possibili cancerogeni, per definirle probabili cancerogeni”.

Recentemente, quindi, gli esperti, sulla scorta degli studi precedenti e grazie ad un numero maggiore e più significativo di casi esaminati nonché al perfezionarsi delle tecniche sperimentali, ritengono più probabile una relazione tra patologie ed esposizione ai campi e.m. di ripetitori e dispositivi mobili.

Le contromisure

Poiché la pericolosità del campo e.m. è legata alla distanza dalla fonte di radiazione ed alla durata dell’esposizione il buon senso raccomanda di tenere il dispositivo mobile il più possibile distante dal corpo (usando ad esempio un auricolare durante la conversazione) e per tempi brevi. Inoltre è fortemente consigliabile evitare di tenere il cellulare, o altro dispositivo mobile, accesso in prossimità del corpo (in particolare la testa) durante le ore di riposo. Essendo inoltre dimostrato che la potenza erogata da uno smartphone è minore se c’è pieno campo, meglio evitare situazioni nelle quali la ricezione è scarsa. Si tenga anche presente che la potenza emessa diminuisce sensibilmente con la tecnologia usata dal nostro dispositivo (nei primi ETACS era notevolmente più elevata che negli attuali 4G).

Da evitare poi l’uso dello smartphone da parte di bambini in quanto più sensibili agli effetti del campo e.m. Infine è buona norma informarsi sul livello SAR dei propri dispositivi mobili consultando le caratteristiche sul sito del costruttore. Esistono numerosi articoli sempre aggiornati in proposito. (si veda ad esempio [6]).

Per quanto riguarda i ripetitori c’è da dire che la normativa vigente prevede, per la loro collocazione e potenza, valori di campo molto inferiori a quelli ritenuti pericolosi.

Circa quest’ultimo punto e le modalità di uso dei vari dispositivi atte a limitare i rischi dovuti all’esposizione ai campi e.m.si veda la già citata relazione [2] e l’ottimo articolo [7] dove si danno utili indicazioni anche riguardo a dispositivi elettrici diversi dagli smartphone.

Conclusioni

Attualmente la pericolosità dei campi e.m. emessi dalle antenne è ancora classificata come possibile e non probabile, pertanto non sembra opportuno rinunciare alle potenzialità offerte dai nostri dispositivi mobili. Come accade in generale nella vita, non eccedere nell’utilizzo ed adottare le opportune precauzioni sembra essere, attualmente, il migliore compromesso tra uso della tecnologia e sicurezza.

Ing. Franco Babbo

RIFERIMENTI BIBLIOGRAFICI

[1] We Are Social - Hootsuite (2018). Digital In 2018 Report  https://wearesocial.com/it/blog/2018/01/global-digital-report-2018

[2] ARPA Piemonte - Dipartimento Radiazioni -  Sara Adda, Laura Anglesio, Alberto Benedetto, Enrica Caputo, Mauro Mantovan, Massimiliano Polesel - coord. Giovanni D’Amore (2014). ESPOSIZIONE UMANA A RADIOFREQUENZE. STUDIO SULL’IMPATTO DELLA TELEFONIA CELLULARE E SULLE MODALITÀ DI UTILIZZO DEL TELEFONINO PER LA RIDUZIONE DEI RISCHI

[3] Michelozzi P et al (2002). Adult and Childhood Leukemia near a High-Power Radio Station in Rome, Italy. Am J Epidemiol

[4] Roosli M., Frei P., Mohler E. and Hug K. (2010) Sistematic Review on the health exposure to radiofrequency electromagnetic fields from mobile phone base stations. Bull. World Health Organ.

[5] Ruggiero Corciella - Corriere della sera (2017). Antenne radio per i cellulari: nei topi causano tumori delle cellule nervose

[https://www.corriere.it/salute/18_marzo_21/antenne-radio-cellulari-topi-causano-tumori-cellule-nervose-0a9547aa-2cf3-11e8-af9b-02aca5d1ad11.shtml?refresh_ce-cp]

[6] Lorenzo Delli (2018). 10 popolari smartphone con valore SAR basso e 10 con valore SAR più alto (aggiornato marzo 2018)

https://www.mobileworld.it/2018/03/12/smartphone-top-10-sar-basso-101681/

[7] Bruno Orsini (2014). Effetti dell’esposizione del corpo umano ai campi elettromagnetici
http://www.meccanismocomplesso.org/effetti-dellesposizione-del-corpo-umano-ai-campi-elettromagnetici/

Aspetti neurobiologici della dipendenza da internet

La dipendenza da Internet può essere correlata con alterazioni dell’integrità del cervello? Vista la diffusione sempre crescente dell’uso eccessivo e “patologico” della rete, soprattutto tra gli adolescenti, diversi gruppi di ricerca in tutto il mondo, stanno indagando sulla possibilità di cambiamenti strutturali e funzionali del cervello associati a tale abuso. I risultati che stanno emergendo sembrano confermarlo e non sono, quindi, certamente incoraggianti. Ci soffermeremo su due studi che risultano particolarmente interessanti ed in qualche modo decisivi nel confortare l’ipotesi di partenza. Il primo arriva dalla Cina, condotto da Lin F e altri,1 ed ha messo in evidenza la perdita di integrità della sostanza bianca in soggetti con disturbo da dipendenza da internet. Per tale studio i ricercatori hanno utilizzato il Tensore di Diffusione, una tecnica di risonanza magnetica non invasiva, che indaga sulla diffusione delle molecole d’acqua nel cervello, in particolare nella sostanza bianca. Quest’ultima è costituita da fasci di fibre e comprende gli assoni dei neuroni ricoperti da mielina.

Diciassette soggetti con diagnosi di dipendenza da internet di età compresa tra 14 ei 24 anni e 16 soggetti controllo, cioè non dipendenti, di età compresa tra 15 e 24 anni, hanno partecipato a questo studio. Tutti i soggetti sono stati sottoposti a sei questionari differenti per valutare l’eventuale dipendenza dalla rete.

I risultati hanno reso evidente che i soggetti con dipendenza da internet mostrano una ridotta diffusione delle molecole d’acqua nella sostanza bianca rispetto ai soggetti non dipendenti. Tutto ciò è indice di una non integrità delle fibre in diverse aree del cervello quali l’area orbito-frontale, la corteccia cingolata anteriore, le fibre commessurali del corpo calloso, la capsula interna ed esterna. Inoltre, il deficit d’integrità è stato più alto nei soggetti con una maggiore dipendenza da Internet.

Nell’immagine viene evidenziato in rosso una delle aree dove risulta ridotta l’integrità della sostanza bianca.

Considerando la corteccia orbito-frontale, questa è legata alla capacità di controllo di alcuni aspetti della personalità e alla capacità decisionale. La corteccia cingolata anteriore ha funzioni nel controllo cognitivo e nell’elaborazione emotiva, nell’empatia e nel controllo degli impulsi. Quindi, alterazioni di queste aree del cervello potrebbero essere messe in relazione con i sintomi e i comportamenti, ormai descritti ampiamente in letteratura, presenti nei soggetti dipendenti da internet. Ma ciò che risulta allarmante è che diversi studi sempre condotti con la stessa tecnica di risonanza magnetica, hanno dimostrato come soggetti dipendenti da alcool, da cocaina o da eroina evidenziano anomalie nell’integrità della sostanza bianca proprio nella corteccia orbito-frontale e nella corteccia cingolata anteriore2,3,4,.

I dati prodotti dai ricercatori cinesi sono preliminari e, ovviamente, lasciano spazio ad un percorso che conduca ad ulteriori e più decisivi risultati; deve essere accertato, per fare un esempio, se la ridotta integrità della sostanza bianca sia dovuta all’uso eccessivo di internet ovvero sia alla base dello sviluppo della dipendenza. Un altro limite importante è il ridotto numero di soggetti in esame, ed è quindi auspicabile il ricorso ad un campione più numeroso.

Un secondo studio, pubblicato su Journal of Biomedicine and Biotechnology, è stato condotto da un gruppo di ricercatori coreani che hanno focalizzato la loro ricerca sul trasportatore della dopamina (DAT) nel sistema nervoso centrale a livello dello striato5. Lo studio ha coinvolto cinque soggetti con dipendenza da internet e nove controlli.

La dopamina è un neurotrasmettitore cioè una molecola che media la trasmissione degli impulsi tra i neuroni. Essa svolge importanti funzioni a livello cerebrale infatti ha un ruolo nel comportamento, nella regolazione dell’umore, nella sensazione di euforia, nel sentimento di punizione e di soddisfazione ecc.

La dopamina viene rilasciata nello spazio sinaptico dal neurone presinaptico, e agisce legandosi al suo recettore presente sulla membrana del neurone postsinaptico scatenando una risposta. La dopamina viene poi ricaptata dal trasportatore della dopamina (DAT) presente sulla membrana del neurone presinaptico. Questo processo di ricaptazione è fondamentale per porre fine all’eccitamento del neurone postsinaptico.

Gli studi dei ricercatori coreani hanno evidenziato un livello di espressione diminuito di DAT nei soggetti dipendenti da Intenet. Questo causa una elevata concentrazione di dopamina nella zona sinaptica a cui si associa un aumento dell’euforia e del senso di gratificazione. I livelli di DAT sono alterati anche in soggetti dipendenti da cocaina6. Tuttavia, elevate concentrazioni di questo neurotrasmettitore nello spazio sinaptico, come dimostrano dati in letteratura, causano danni ai neuroni dopaminergici. In poche parole a lungo andare i neuroni di degradano perché sovraeccitati.

 L’uso della rete che quotidianamente ci permette di spalancare gli occhi sul mondo e ci arricchisce di conoscenze, nasconde delle insidie da non sottovalutare. Ciò che costatiamo ogni giorno empiricamente, cioè l’utilizzo quantitativamente e qualitativamente scorretto di internet accompagnato da manifestazioni come apatia o scarsa tendenza relazionale o addirittura isolamento dalla realtà, sembrano essere sempre più confermati e sempre meglio giustificati dalla ricerca scientifica.

Antonella Loiacono

Riferimenti Bibliografici

  1. Lin F, Zhou Y, Du Y, Qin L, Zhao Z, Xu J, Lei H. Abnormal White Matter Integrity in Adolescents with Internet Addiction Disorder: A Tract-Based Spatial Statistics Study. PLoSOne. 2012;7(1):e 30253. doi: 10.1371/journal.pone.0030253. Epub 2012 Jan 11.
  2. Harris GJ, Jaffin SK, Hodge SM, Kennedy D, Caviness VS, et al. (2008) Frontal white matter and cingulum diffusion tensor imaging deficits in alcoholism. Alcohol Clin Exp Res 32: 1001–1013.
  3. Romero MJ, Asensio S, Palau C, Sanchez A, Romero FJ (2010) Cocaine addiction: diffusion tensor imaging study of the inferior frontal and anterior cingulate white matter. Psychiatry Res 181: 57–63.
  4. Liu H, Li L, Hao Y, Cao D, Xu L, et al. Disrupted white matter integrity in heroin dependence: a controlled study utilizing diffusion tensor imaging. Am J DrugAlcoholAbuse. 2008;34:562–575.

    5. Hou H, Jia S, Hu S, et al. Reduced Striatal Dopamine Transporters in People with Internet Addiction Disorder.           Journal of Biomedicine and Biotechnology. Volume 2012, Article ID 854524, 5 pages

  1. Crits-Christoph P, Newberg A, Wintering N et al. Dopamine transporter levels in cocaine dependent subjects. Drug Alcohol Depend. 2008. Nov 1;98 (1-2):70-76

Un fenomeno poco conosciuto: il bullismo in rosa

Il comportamento aggressivo è stato per lungo tempo considerato tipicamente maschile, infatti, fino agli anni’70 la maggior parte degli studi sul bullismo hanno tralasciato le donne  sulla base della presunzione che le stesse non avessero la medesima aggressività.

La cronaca recente smentisce tale impostazione: oggi infatti, il fenomeno è in netta controtendenza e sono in aumento i casi che vedono le donne protagoniste di atti di bullismo.

Il comportamento aggressivo è stato per lungo tempo considerato tipicamente maschile, infatti, fino agli anni’70 la maggior parte degli studi sul bullismo hanno tralasciato le donne  sulla base della presunzione che le stesse non avessero la medesima aggressività.

La cronaca recente smentisce tale impostazione: oggi infatti, il fenomeno è in netta controtendenza e sono in aumento i casi che vedono le donne protagoniste di atti di bullismo.

Il ruolo della didattica laboratoriale nell'insegnamento/apprendimento delle scienze

1.1 Introduzione

L’utilizzo della metodologia per progetti nella didattica delle scienze rappresenta, nel percorso formativo degli studenti della scuola media superiore italiana, una modalità per ritrovarsi davanti situazioni reali da studiare, uno stimolo a trovare strategie idonee per individuare soluzioni pratiche e ottenere un risultato finale.

Il suo utilizzo negli istituti tecnici e professionali rispettivamente nell’area di Progetto e nella Terza Area ha consentito, a partire dagli anni novanta, di sperimentare significativi percorsi curricolari in una prospettiva interdisciplinare e in collaborazione con istituzioni e imprese esterne alle scuole.

ARTECHNE: le ICT tra arte e tecnica

Uno degli argomenti fondanti di questo sito è il legame esistente tra le tecnologie dell’informazione e della comunicazione; non sembra dunque privo di valore il tentativo di ragionare su un dualismo fondato su un confronto simile, quello cioè tra arte e tecnica cercando di esplorarne il senso partendo dai loro etimi.

Leggi tutto l'articolo...

RIFERIMENTI

logo icted

ICTEDMAGAZINE

Information Communicatio
Technologies Education Magazine

Registrazione al n.157 del Registro Stam­pa presso il Tribunale di Catanzaro del 27/09/2004

Rivista trimestrale  

Direttore responsabile/Editore-responsabile intellettuale

Luigi A. Macrì