L'intelligenza artificiale è tra noi, possiamo stare tranquilli?

La Commissione Europea ha emesso un regolamento che stabilisce regole armonizzate sull’intelligenza artificiale

Giampietro Rossi 

Presidente Federmanager Padova e Rovigo
Tutti gli amanti della fantascienza ben conoscono le tre leggi della robotica inventate dallo scrittore e scienziato Isaac Asimov, ottanta anni fa (1942), leggi che regolano il funzionamento del “cervello” positronico di un robot umanoide: 
  • Prima Legge - Un robot non può recare danno agli esseri umani, né può permettere che, a causa del suo mancato intervento, gli esseri umani ricevano danno. 
  • Seconda Legge - Un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nel caso che tali ordini contrastino con la Prima Legge. 
  • Terza Legge - Un robot deve salvaguardare la propria esistenza, purché ciò non contrasti con la Prima e la Seconda Legge. Fu successivamente introdotta anche la legge “zero”, anteposta, in ordine di importanza, alle altre tre. 
  • Legge Zero - Un robot non può recare danno all’Umanità, né può permettere che, a causa del suo mancato intervento, l’Umanità riceva un danno. 
Per tornare ai nostri tempi, un recente sondaggio commissionato dalla Comunità Europea ha evidenziato come quasi la metà (43%) delle imprese impegnate nel campo della Intelligenza Artificiale (IA), siano seriamente preoccupate delle possibili ricadute, a livello di responsabilità civile, per possibili danni causati a terzi dai sistemi algoritmici della IA
È così che, nel 2021, la Commissione Europea, chissà, forse anche memore delle quattro leggi della robotica, ha emesso un regolamento che stabilisce regole armonizzate sull’IA, intendendo con il termine intelligenza artificiale, una famiglia di tecnologie, quelli che sono comunemente chiamati i robot, in rapida evoluzione, in grado di apportare una vasta gamma di benefici economici e sociali in tutto lo spettro delle attività industriali e sociali. 
Più precisamente l’IA viene definita come: 
• Machine learning approaches, including supervised, unsupervised and reinforcement learning, using a wide variety of methods including deep learning.
  • Logic- and knowledge-based approaches, including knowledge representation, inductive (logic) programming, knowledge bases, inference and deductive engines, (symbolic) reasoning and expert systems. 
  • Statistical approaches, Bayesian estimation, search and optimization methods».
Sostanzialmente trattasi di sistemi d’IA complessi capaci di un autoapprendimento automatico e di un alto livello di automazione. Tali sistemi possono applicare diversi metodi di ragionamento pratico sui dati disponibili nonché differenti modi di apprendimento. 
In genere, nei sistemi basati sull’apprendimento automatico è possibile distinguere due componenti ovvero l’algoritmo addestratore e l’algoritmo addestrato: il secondo realizza il compito affidato al sistema, il primo modifica il secondo in modo che questo svolga meglio quel compito. 
In questo quadro si distinguono vari metodi di apprendimento: 

- apprendimento supervisionato; 
- apprendimento per rinforzo; 
- apprendimento non supervisionato. 

L’apprendimento supervisionato, oggi il metodo più utilizzato e che viene richiamato nella proposta di regolamento, prevede l’insegnamento alla macchina, vale a dire un insieme di dati di addestramento (training set), in prospettiva al compito che la stessa deve compiere
Questo regolamento definisce altresì gli usi leciti ed illeciti della IA in relazione al tipo e livello di rischio
  • Assoluto e/o inaccettabile 
  • Alto 
  • Basso indotto su persone o beni. 
I sistemi ritenuti a rischio inaccettabile saranno vietati: ad esempio, saranno proibiti gli assistenti vocali che incoraggiano i ragazzi a compiere azioni e il social scoring (Sistema semplificato di valutazione sociale basato sul punteggio sociale, che si chiama sistema di credito sociale, che serve a monitorare i cittadini, enti e imprese attraverso un complesso sistema di controllo e valutazione, connesso a misure premiali e sanzionatorie). 
Questi sistemi coinvolgono i comportamenti umani e rischiano di essere manipolatori
Rientrano nel divieto tutti quei sistemi che manipolano opinioni, decisioni; che sfruttano e prendono di mira le vulnerabilità delle persone nonché quelli che mirano alla sorveglianza di massa. 
Tra le applicazioni dell’IA a cui è stata attribuita l’etichetta ad alto rischio ci sono quelle relative alla gestione delle infrastrutture critiche, quale il traffico stradale, la fornitura di acqua, gas, riscaldamento ed elettricità. 
Ci sono anche quelle che riguardano l’istruzione e la formazione del personale, i sistemi d’IA destinati a essere utilizzati per l’accesso o l’assegnazione di persone fisiche agli istituti d’istruzione e formazione professionale. 
In realtà più che d’IA, in questo caso, parrebbe trattarsi di algoritmi cloustering ovvero sistemi non di auto apprendimento ma di organizzazione di dati. In genere viene fatto l’esempio di quanto è successo in Belgio, dove il Governo centrale ha deciso d’implementare il sistema basato su tecniche d’intelligenza artificiale (VDAB), al fine di assegnare l’istituto scolastico più opportuno per ogni studente, il che ha portato però a creare classi non eterogenee, come politicamente si voleva, collocando invece gli studenti più talentuosi tutti in una stessa classe. 
Sono aggiunti, tra quelli ad alto rischio, anche i sistemi d’IA nella chirurgia assistita da robot; quelli usati per lo screening o il filtraggio delle candidature di lavoro; sistemi per valutare l’affidabilità creditizia delle persone; sistemi di valutazione dell’affidabilità delle informazioni fornite da persone fisiche per prevenire, investigare o prevenire reati; sistemi per il trattamento e l’esame delle domande di asilo e visto; quelli per la identificazione e classificazione biometrica delle persone fisiche, cioè i sistemi d’IA che vengono utilizzati per la biometria remota in tempo reale comprensivi dell’identificazione delle persone fisiche. 
Il nuovo quadro normativo europeo pertanto nasce per
  • assicurare che i sistemi di IA immessi sul mercato dell’Unione e utilizzati siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell’Unione; 
  • assicurare la certezza del diritto per facilitare gli investimenti e l’innovazione nell’intelligenza artificiale; 
  • migliorare la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e requisiti di sicurezza applicabili ai sistemi di IA; 
facilitare lo sviluppo di un mercato unico per applicazioni di IA lecite, sicure e affidabili nonché prevenire la frammentazione del mercato. 
Nel settembre dello scorso anno poi è stata emanata una Direttiva Comunitaria relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale relativa all’IA (Direttiva sulla Responsabilità da Intelligenza Artificiale). 
La relazione introduttiva segnala che “Le norme nazionali vigenti in materia di responsabilità, in particolare per colpa, non sono adatte a gestire le azioni di responsabilità per danni causati da prodotti e servizi basati sull’IA
In base a tali norme, coloro che subiscono un danno sono tenuti a dimostrare un’azione o un’omissione illecita da parte della persona che ha causato il danno. 
Le caratteristiche specifiche dell’IA, tra cui la complessità, l’autonomia e l’opacità (il cosiddetto effetto “scatola nera”), possono rendere difficile o eccessivamente costoso, per quanti subiscono un danno, identificare la persona responsabile e dimostrare che sussistono i presupposti ai fini dell’esito positivo di un’azione di responsabilità
In particolare, quando chiedono un risarcimento, i danneggiati potrebbero dover sostenere costi iniziali molto elevati e affrontare procedimenti giudiziari notevolmente più lunghi rispetto a quanto accade nei casi che non riguardano l’IA, venendo pertanto del tutto dissuasi dal chiedere un risarcimento”. 
In estrema sintesi la nuova normativa dice che i sistemi d’IA ad alto rischio possono essere immessi sul mercato dell’Unione o messi in servizio in altro modo, a condizione di rispettare i requisiti obbligatori
La valutazione d’impatto deve includere l’accuratezza prevista del sistema usato e le misure adottate per proteggere i gruppi più vulnerabili di persone
I produttori dovranno dimostrare il rispetto del Regolamento attraverso una dichiarazione europea di conformità
Le imprese conformi potranno, così, mostrare un marchio europeo di qualità connesso all’intelligenza artificiale, emesso dall’Autorità competente designata dai vari Stati membri.
La normativa prende in esame i danni causati da applicazioni ad alto e basso rischio
Questi danni possono riguardare sia l’incolumità e la sicurezza delle persone, sia interessi morali meritevoli di protezione, come le offese alla reputazione e subentra una responsabilità per colpa per sistemi a basso rischio, quelli maggiormente diffusi e una responsabilità oggettiva per quelli ad alto rischio. 
La distinzione tra i due tipi di responsabilità è rilevante per chi poi dovrà pagare i danni e pertanto riguarderà soprattutto il costo dell’assicurazione. 
La responsabilità per colpa viene determinata dal concetto di “danno ingiusto”, derivante dal mancato rispetto dei classici doveri di cura, di informazione e controllo
I datori di lavoro ed i colleghi con delega per la sicurezza la “negligenza” consisterà nell’omessa vigilanza e nel mancato intervento per prevenire possibili azioni pericolose messe in atto da un addetto. 
La Direttiva precisa che le responsabilità gravi in via solidale ricadono sia su coloro che hanno mansioni di controllo su un rischio connesso al funzionamento dell’IA, sia su coloro che definiscono le caratteristiche della tecnologia e forniscono un controllo sui possibili rischi connessi al funzionamento dell’IA
E i robot “intelligenti”, quelli che imparano e potremmo dire che diventano “autonomi”? La Direttiva dice che comunque il robot è creato e programmato da mani umane e che quindi la responsabilità rimane. 
Le pene pecuniarie per l’accertata responsabilità sono piuttosto salate e possono arrivare fino a 2 M€ in caso di morte o danni gravi alla salute e all’integrità fisica. 
Per i colleghi che hanno avuto “in dono” anche la delega per la Sicurezza Aziendale, è sicuramente un aggravio di responsabilità, oltre che di competenze necessarie per gestire un mondo in rapidissima evoluzione, con la normativa che arranca nel cercare di stare al passo con la tecnologia digitale sempre più invasiva. 
Il D. Lgs. 09 aprile 2008, n. 81 è stato aggiornato negli anni, l’ultimo aggiornamento è dell’agosto 2022, ma non ha ancora preso in esame le problematiche introdotte, nelle aziende, dalla robotica
La parola robot compare solo due volte, una nell’Allegato V, per i requisiti di sicurezza delle attrezzature di lavoro e quando si citano gli impianti di sollevamento, trasporto e movimentazione dei materiali, con i robot manipolatori. 
Per quel che riguarda l’IA, ancora nulla! Unitamente alla proposta di regolamento sulle applicazioni di AI, la Commissione Ue ha presentato anche la bozza di regolamento sui robot, il Nuovo Regolamento Macchine (New Machinery Product Regulation - MPR), destinato a sostituire la “Direttiva Macchine” del 2006
Questo nuovo Regolamento si propone, con le relative norme tecniche armonizzate, di valutare correttamente le applicazioni che utilizzano robot collaborativi (COBOT o collaborative robot). 
La preoccupazione è che, da un lato, tali applicazioni risultino poco sicure poiché le norme armonizzate non sono adeguatamente aggiornate e, dall’altro, che il Regolamento sui prodotti Macchine (MPR) o le norme armonizzate ostacolino il pieno sviluppo di questa nuova e importante evoluzione industriale. 
La formazione assumerà sempre più un ruolo determinante nelle aziende e nella società: qui però ci scontriamo, specialmente in Italia, con un quadro storico complicato, dato che stiamo affrontando un periodo di trasformazione epocale, nel quale l’uomo sembra destinato a fondersi con le macchine. 
Potremmo dire che ci stiamo avviando verso la coesistenza di tre mondi: quello fisico, quello digitale e quello in cui le due dimensioni sembrano coesistere ed ibridarsi
Purtroppo la nostra società, a cominciare dalla scuola è ancora in gran parte basata sulla tradizionale dimensione fisica, trasmettendo competenze che formano professioni che rischiano di essere già oggi, per molti versi, superate
Serve invece un programma educativo che promuova le capacità di stare e di operare nel moderno mondo tecnologico; occorre allenare il pensiero, sviluppare l’intelligenza critica, prepararsi all’incerto e all’imprevisto, imparare infine a selezionare le informazioni importanti e rilevanti per evitare di essere travolti dalla disinformazione che sta diventando dilagante. 
Quanto impiegherà la nostra scuola ad adeguarsi? Come diceva il Manzoni “Ai posteri l’ardua sentenza”.