Intelligenza artificiale e nuove frontiere

Norme EU su IA ed etica

Norme EU su IA ed etica

a cura di Gennaro Maria Amoruso

Avvocato Cassazionista - Esperto in nuove tecnologie, sicurezza e diritto - Membro della Commissione Privacy dell’Ordine degli Avvocati di Roma - Founder di Legal Hackers Roma.

Vediamo che cosa sta avvenendo a livello europeo sul dibattito normativo sull’ importante tema dell’intelligenza artificiale: infatti, l’Unione mira a garantire che l'IA, sviluppata e utilizzata in Europa, sia conforme ai diritti e ai valori dell'UE.

Il 14 giugno scorso il Parlamento europeo ha adottato la sua posizione negoziale circa la legge sull'intelligenza artificiale (“IA Act”) con 499 voti a favore, 28 contrari e 93 astensioni ed è pronto ad avviare i negoziati con gli Stati UE sul testo definitivo.

Le regole in corso di approvazione seguono un approccio basato sul rischio, in maniera similare a come avvenuto per il GDPR nel 2016, e stabiliscono obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che l'intelligenza artificiale può generare.

Il Parlamento europeo ha dato seguito al testo concordato in sede di commissione l’11 maggio 2023. Tale testo è incentrato sulla scala di rischio per regolamentare le applicazioni di intelligenza artificiale, su quattro livelli:

  • minimo (videogiochi abilitati per l'IA e filtri antispam);

  • limitato (chatbot);

  • alto (assegnazione di punteggi a esami scolastici e professionali, smistamento dei curriculum, valutazione dell'affidabilità delle prove in tribunale, chirurgia assistita da robot)

  • inaccettabile («tutto ciò che rappresenta una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone», come l’assegnazione di un “punteggio sociale” da parte dei governi).

Per il primo livello non è previsto alcun intervento, mentre l'ultimo livello sarà vietato integralmente e i due intermedi richiederanno livelli crescenti di trasparenza e sicurezza.

Un regolamento che norma l’utilizzo dell’intelligenza artificiale in un mondo ad alta intensità tecnologica è un evento che non passa inosservato. Il vecchio continente non ha il dominio tecnologico in questo settore. Per questa ragione si tratta di definire regole che si applicano su prodotti e servizi creati e gestiti in altri continenti, con sistemi giuridici ed economici differenti in concorrenza, se non in contrasto, con quelli dell’Unione europea.

La sfida è aperta e sullo sfondo si agita il dibattito sull’etica. L’etica dell’intelligenza artificiale consente di evitare azioni dettate dall’urgenza del momento o da congiunture economiche oppure, come per la pandemia, di altra natura.

Ci sono diversi casi che possono essere considerati significativi nell'ambito dell'etica dell'intelligenza artificiale. Di seguito alcuni esempi:

1. Discriminazione algoritmica: Sono emersi diversi casi in cui gli algoritmi hanno mostrato comportamenti discriminatori, perpetuando o amplificando i pregiudizi esistenti. Ad esempio, algoritmi di selezione del personale o di assegnazione dei prestiti hanno dimostrato di essere inclini a discriminare certi gruppi di persone sulla base di caratteristiche come l'etnia o il genere.

2. Privacy e sicurezza dei dati: La crescente raccolta e l'elaborazione dei dati personali sollevano importanti questioni etiche. Casi come quello di Cambridge Analytica, in cui i dati di milioni di utenti di Facebook sono stati utilizzati impropriamente per influenzare le elezioni, hanno sollevato preoccupazioni sulla protezione della privacy e sul controllo dei dati personali.

3. Responsabilità delle decisioni automatizzate: Con l'IA che prende decisioni in settori critici come la salute o la guida autonoma, sorgono domande importanti sulla responsabilità in caso di danni o incidenti. Ad esempio: se un sistema diagnostico medico automatizzato sbaglia una diagnosi, chi ne è responsabile? I problemi di attribuzione della responsabilità e la necessità di adeguati meccanismi di rendicontazione e di controllo sono temi cruciali.

4. Impatto sociale ed economico dell'automazione: L'introduzione di sistemi automatizzati può portare a cambiamenti significativi nel mercato del lavoro e nelle dinamiche sociali. L'automazione può creare posti di lavoro ma può anche sostituirli, generando disuguaglianze socioeconomiche. La riflessione etica è necessaria per garantire che l'automazione sia gestita in modo equo e che i suoi benefici siano distribuiti in modo giusto.

5. Utilizzo dell'IA nei sistemi di sorveglianza e controllo: L'impiego dell'IA nei sistemi di sorveglianza di massa solleva questioni etiche riguardanti la privacy, la libertà e l'abuso di potere. Ad esempio, l'utilizzo di riconoscimento facciale o di analisi comportamentale automatizzata può minacciare i diritti individuali e la libertà di espressione.

Questi sono solo alcuni casi rappresentativi, ma tali profili si sviluppano continuamente in risposta alle nuove sfide e questioni etiche che emergono con l'avanzamento tecnologico.

L’Eurocamera ha trovato un’impostazione equilibrata e centrata sulle persone per una legalizzazione che stabilirà uno standard globale per molti anni. Possiamo essere fieri del ruolo leader dell'Ue in questo settore”, ha detto la presidente dell’Eurocamera, Roberta Metsola.

A breve inizieranno i negoziati tra le istituzioni UE, e viene indicata la fine del 2023 come la data verso cui è rivolto l'impegno di tutti per raggiungere l'intesa finale.

RIFERIMENTI

logo icted

ICTEDMAGAZINE

Information Communicatio
Technologies Education Magazine

Registrazione al n.157 del Registro Stam­pa presso il Tribunale di Catanzaro del 27/09/2004

Rivista trimestrale  

Direttore responsabile/Editore-responsabile intellettuale

Luigi A. Macrì