Intelligenza Artificiale: è stata un’estate ricca di novità su un tema così controverso!

Il regolamento europeo sull'Intelligenza Artificiale (AI Act) - entrato in vigore il 1° agosto 2024 - mira a promuovere lo sviluppo e la diffusione responsabili dell'IA nell'UE

Sara Cattaneo

Global Head of Supply Chain Management - Socia ALDAI-Federmanager e componente del Comitato di Redazione Dirigenti Industria


È impossibile negare che l‘Intelligenza Artificiale sia uno degli argomenti più in voga del momento in vari ambiti e settori, da quello industriale a quello politico, passando anche per le cosiddette “chiacchiere da bar” … 

È così dibattuto perché, se da un lato se ne intuisce il grande potenziale, dall’altro presenta molti aspetti ancora nebulosi che creano incertezza e preoccupazione. La sua crescente rilevanza nelle nostre vite e professioni è tuttavia ormai un dato di fatto, e per questo svariati enti regolatori da tempo cercano di affrontare la situazione, al fine di stabilire i confini di utilizzo dei sistemi legati all’IA.
Iniziamo quindi a riassumere brevemente il contesto, descrivendo i principali possibili vantaggi e alcuni possibili rischi legati all’IA, identificati anche dall’Unione Europea, in modo da capire perché un intervento si sia reso necessario.

Principali vantaggi legati all’utilizzo dell’IA

L’IA ha, come caratteristica prima, la capacità di accedere ed elaborare rapidissimamente un quantitativo smisurato di dati, cosa che ovviamente sarebbe impossibile alla mente umana, e di conseguenza è in grado di portare a un’automatizzazione dei compiti più ripetitivi, nonché di migliorarne notevolmente la qualità di esecuzione.
Questo comporta un’enorme quantità di benefici non solo in ambito business (alcune statistiche stimano un aumento della produttività del lavoro tra il 10% e il 40% grazie all’IA), ma anche nella nostra vita di tutti giorni… basti pensare ad alcune applicazioni in campo sanitario, o relative alla guida autonoma delle automobili, con un incremento auspicabile della sicurezza.

Vorrei citare anche altri due benefici legati a una maggiore accessibilità dei dati: l’istruzione e la formazione saranno finalmente alla portata di un pubblico più ampio, le forze dell’ordine avranno sistemi più efficienti per investigare e prevenire reati.
L’IA può rappresentare inoltre un acceleratore importante dell’innovazione, supportando lo sviluppo di una nuova generazione di prodotti e servizi; non in ultimo si stima che possa anche favorire la transizione ecologica migliorando le soluzioni inerenti al trasporto pubblico (il Parlamento Europeo, per esempio, stima una possibile riduzione delle emissioni globali di gas serra entro il 2030 che va dall’ 1,5% al 4%, attribuibile all’uso dell’IA).

Alcuni rischi legati all’IA

È doveroso ricordare che ci sono sistemi e oggetti non pericolosi in termini assoluti, ma a seconda dell’uso che se ne intende fare. L’IA è sicuramente uno di questi.
Il primo rischio a cui pensare è ovviamente legato alla protezione dei dati e alla potenziale violazione della privacy. L’IA è infatti in grado di analizzare le informazioni che acquisisce su una persona senza che questa ne sia a conoscenza, potendo quindi influenzare perfino le sue decisioni (per esempio esponendola ad alcuni contenuti online piuttosto che ad altri).
Inoltre, uno dei timori più diffusi tra i lavoratori è relativo all’impatto che può avere sull’occupazione.
Il Parlamento Europeo stima che il 14% dei posti di lavoro nei Paesi dell’OCSE siano automatizzabili, e che un addizionale 32% dovrebbe affrontare cambiamenti sostanziali (ovviamente è altresì vero che in parallelo ne nasceranno di nuovi, i quali però richiederanno competenze diverse e possibili percorsi di upskilling).
Spingendoci oltre nell’analisi di un utilizzo non-etico, l’IA può anche essere usata per creare immagini, video e audio falsi (deep fake), ma molto realistici, utilizzabili per truffare qualcuno, rovinargli la reputazione e in qualche modo interferire nella sua vita arrecandogli dei danni.
È inoltre fondamentale ricordare che i risultati prodotti dall’IA dipendono comunque sempre da come viene progettata a monte: quindi, in ultimo, non è immune agli errori o alle eventuali cattive intenzioni di chi ne crea l’algoritmo, il quale infatti può essere “manomesso”. Ad esempio, alcuni aspetti importanti potrebbero di proposito venire trascurati nell’algoritmo o programmati ai fini di distorcerne l’output, con conseguenze sulle decisioni di chi baserà la propria valutazione su questo.
Queste casistiche potrebbero avere degli impatti devastanti su pochi individui (cosa già di per sé non trascurabile), o addirittura su vasta scala (si potrebbe pensare alle conseguenze in ambito politico, sociale, criminale, ecc.).

Regolamento Europeo

Ecco quindi che, come dicevamo, si è reso indispensabile un intervento, in primis, da parte della Commissione europea. 

Dopo anni di dibattiti e valutazioni, il 1º agosto 2024 
è entrato in vigore il regolamento europeo sull’Intelligenza Artificiale 
(il cosiddetto AI Act)
Il regolamento mira a promuovere lo sviluppo e la diffusione responsabili dell’intelligenza artificiale nell’UE.

L’approccio si basa su una valutazione del rischio, ovvero categorizza le tipologie di applicazioni in base a un livello di rischio a esse associato. Sono stati pertanto individuati 4 livelli di rischio principale, a ognuno dei quali viene attribuita una serie di obblighi specifici:

  1. Rischio Minimo (ad esempio i videogiochi): tali sistemi non sono soggetti a obblighi specifici, anche se nulla vieta alle aziende di applicare codici di condotta aggiuntivi. 
  2. Rischio specifico per la trasparenza (ad esempio i chatbot): tali sistemi hanno l’obbligo di comunicare chiaramente agli utenti che stanno interagendo con una macchina; i cosiddetti deep fake devono essere etichettati come tali e gli utenti devono essere informati quando il sistema utilizza tools di categorizzazione biometrica o di riconoscimento delle emozioni;
  3. Rischio alto (ad esempio software medici o per l’assunzione del personale): i sistemi identificati ad alto rischio saranno tenuti a rispettare requisiti rigorosi, tra cui la registrazione e la tracciabilità delle attività, una documentazione dettagliata, la necessità di informazioni chiare per gli utenti, la sorveglianza umana sull’utilizzo dell’IA e un elevato livello di robustezza, accuratezza e cybersicurezza.
  4. Rischio inaccettabile (ad esempio sistemi che permettono l’attribuzione di un “punteggio sociale” da parte di governi o imprese, o i giocattoli che tramite assistenza vocale incoraggiano comportamenti pericolosi dei minori): tali sistemi saranno vietati. Inoltre, saranno vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro.
In aggiunta, la legge sull’IA introduce norme per i cosiddetti modelli di IA per finalità generali, ovvero quei sistemi estremamente sviluppati in grado di svolgere moltissimi compiti, tra cui la generazione di testi di tipo umano, sistemi sempre più diffusi e in uso tra la popolazione.
La legge sull’IA sarà mirata a garantire la trasparenza lungo tutta la catena del valore e ne affronterà più nel dettaglio i possibili rischi.

Prossime fasi 

Gli Stati membri avranno tempo fino al 2 agosto 2025 per incaricare autorità nazionali competenti che garantiscano l’applicazione delle norme e svolgano attività di vigilanza del mercato. 
L’ufficio per l’IA della Commissione sarà il principale organismo di attuazione della legge sull’IA a livello europeo. La maggior parte delle norme inizierà ad applicarsi il 2 agosto 2026, eccezion fatta per i divieti relativi alla categoria del “rischio inaccettabile” che si applicheranno già dopo sei mesi, mentre quelle relative ai cosiddetti modelli di IA per finalità generali si applicheranno dopo 12 mesi.

Strategia italiana 


Quasi in simultanea con la pubblicazione a luglio del Regolamento europeo, l’Italia ha pubblicato il documento completo della Strategia italiana per l’Intelligenza Artificiale 2024-2026.
ll testo inizia con una dichiarazione di intenti relativa all’impegno del Governo nel creare un ambiente in cui l’IA possa svilupparsi in modo sicuro, etico e inclusivo, massimizzando i benefici e minimizzando i potenziali svantaggi e/o rischi legati all’utilizzo. Dopo un’analisi del contesto globale e del proprio posizionamento, l’Italia identifica quattro macroaree su cui focalizzare l’attenzione:

  1. Ricerca
  2. Pubblica Amministrazione
  3. Imprese
  4. Formazione

La strategia propone, inoltre, un sistema di monitoraggio della relativa attuazione e un’analisi del contesto regolativo che traccia la cornice entro cui dovrà essere dispiegata (figura 1). 
Si sono quindi formati molteplici tavoli di lavoro, nazionali e non, che coinvolgono un insieme molto eterogeneo di esperti, atti a definire nel dettaglio i contenuti e la futura attuazione dei punti sopra illustrati.
Sicuramente questo è solo l’inizio di un lungo processo di trasformazione digitale che riguarda tutti noi e la società in cui viviamo.
Se da un lato sarà fondamentale riuscire a garantire il rispetto dei confini di un utilizzo etico dell’IA, dall’altro credo sia importante fare parte di questo cambiamento in modo costruttivo, affrontandolo con una mente aperta e senza pregiudizi, proiettati verso un progresso e un’innovazione che l’IA ci può garantire. 
Del resto come diceva A. Einstein: “Il cambiamento non è mai doloroso, solo la resistenza al cambiamento lo è”.

Archivio storico dei numeri di DIRIGENTI INDUSTRIA in pdf da scaricare, a partire da Gennaio 2013.