L'intelligenza artificiale è tra noi, possiamo stare tranquilli?
La Commissione Europea ha emesso un regolamento che stabilisce regole armonizzate sull’intelligenza artificiale
Giampietro Rossi
Presidente Federmanager Padova e Rovigo
Tutti gli amanti della fantascienza ben conoscono le tre
leggi della robotica inventate dallo scrittore e scienziato Isaac Asimov, ottanta anni fa (1942), leggi che regolano il funzionamento del “cervello” positronico di un
robot umanoide:
- Prima Legge - Un robot non può recare danno agli esseri umani, né può permettere che, a causa del suo mancato intervento, gli esseri umani ricevano danno.
- Seconda Legge - Un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nel caso che tali ordini contrastino con la Prima Legge.
- Terza Legge - Un robot deve salvaguardare la propria esistenza, purché ciò non contrasti con la Prima e la Seconda Legge. Fu successivamente introdotta anche la legge “zero”, anteposta, in ordine di importanza, alle altre tre.
- Legge Zero - Un robot non può recare danno all’Umanità, né può permettere che, a causa del suo mancato intervento, l’Umanità riceva un danno.
Per tornare ai nostri tempi, un recente sondaggio commissionato dalla Comunità Europea ha evidenziato come quasi la metà (43%) delle imprese impegnate nel
campo della Intelligenza Artificiale (IA), siano seriamente preoccupate delle possibili ricadute, a livello
di responsabilità civile, per possibili danni causati a
terzi dai sistemi algoritmici della IA.
È così che, nel 2021, la Commissione Europea, chissà, forse anche memore delle quattro leggi della robotica, ha emesso un regolamento che stabilisce
regole armonizzate sull’IA, intendendo con il termine
intelligenza artificiale, una famiglia di tecnologie, quelli
che sono comunemente chiamati i robot, in rapida
evoluzione, in grado di apportare una vasta gamma di
benefici economici e sociali in tutto lo spettro delle attività industriali e sociali.
Più precisamente l’IA viene definita come:
⢠Machine learning approaches, including supervised,
unsupervised and reinforcement learning, using a
wide variety of methods including deep learning.
- Logic- and knowledge-based approaches, including knowledge representation, inductive (logic) programming, knowledge bases, inference and deductive engines, (symbolic) reasoning and expert systems.
- Statistical approaches, Bayesian estimation, search and optimization methods».
Sostanzialmente trattasi di sistemi d’IA complessi capaci di un autoapprendimento automatico e di un alto livello di automazione.
Tali sistemi possono applicare diversi metodi di ragionamento pratico sui dati disponibili nonché differenti modi di apprendimento.
In genere, nei sistemi basati sull’apprendimento automatico è possibile distinguere
due componenti ovvero l’algoritmo addestratore e l’algoritmo addestrato: il secondo realizza il compito affidato al sistema, il primo modifica il secondo in modo
che questo svolga meglio quel compito.
In questo quadro si distinguono vari metodi
di apprendimento:
- apprendimento supervisionato;
- apprendimento per rinforzo;
- apprendimento non supervisionato.
L’apprendimento supervisionato, oggi il
metodo più utilizzato e che viene richiamato nella proposta di regolamento, prevede l’insegnamento alla macchina, vale
a dire un insieme di dati di addestramento (training set), in prospettiva al compito
che la stessa deve compiere.
Questo regolamento definisce altresì gli usi
leciti ed illeciti della IA in relazione al tipo
e livello di rischio:
- Assoluto e/o inaccettabile
- Alto
- Basso indotto su persone o beni.
I sistemi ritenuti a rischio inaccettabile saranno vietati: ad esempio, saranno proibiti
gli assistenti vocali che incoraggiano i ragazzi a compiere azioni e il social scoring
(Sistema semplificato di valutazione sociale
basato sul punteggio sociale, che si chiama sistema di credito sociale, che serve a
monitorare i cittadini, enti e imprese attraverso un complesso sistema di controllo e
valutazione, connesso a misure premiali e
sanzionatorie).
Questi sistemi coinvolgono i comportamenti umani e rischiano di essere manipolatori.
Rientrano nel divieto tutti quei
sistemi che manipolano opinioni, decisioni;
che sfruttano e prendono di mira le vulnerabilità delle persone nonché quelli che mirano alla sorveglianza di massa.
Tra le applicazioni dell’IA a cui è stata attribuita l’etichetta ad alto rischio ci sono
quelle relative alla gestione delle infrastrutture critiche, quale il traffico stradale, la fornitura di acqua, gas, riscaldamento ed elettricità.
Ci sono anche quelle che riguardano
l’istruzione e la formazione del personale, i
sistemi d’IA destinati a essere utilizzati per l’accesso o l’assegnazione di persone fisiche agli istituti d’istruzione e formazione
professionale.
In realtà più che d’IA, in questo caso, parrebbe trattarsi di algoritmi cloustering ovvero sistemi non di auto apprendimento ma di
organizzazione di dati. In genere viene fatto
l’esempio di quanto è successo in Belgio,
dove il Governo centrale ha deciso d’implementare il sistema basato su tecniche d’intelligenza artificiale (VDAB), al fine di assegnare l’istituto scolastico più opportuno per
ogni studente, il che ha portato però a creare classi non eterogenee, come politicamente si voleva, collocando invece gli studenti
più talentuosi tutti in una stessa classe.
Sono aggiunti, tra quelli ad alto rischio, anche i sistemi d’IA nella chirurgia assistita da
robot; quelli usati per lo screening o il filtraggio delle candidature di lavoro; sistemi per valutare l’affidabilità creditizia delle
persone; sistemi di valutazione dell’affidabilità delle informazioni fornite da persone
fisiche per prevenire, investigare o prevenire reati; sistemi per il trattamento e l’esame
delle domande di asilo e visto; quelli per la
identificazione e classificazione biometrica
delle persone fisiche, cioè i sistemi d’IA che
vengono utilizzati per la biometria remota in
tempo reale comprensivi dell’identificazione delle persone fisiche.
Il nuovo quadro normativo europeo pertanto nasce per:
- assicurare che i sistemi di IA immessi sul mercato dell’Unione e utilizzati siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell’Unione;
- assicurare la certezza del diritto per facilitare gli investimenti e l’innovazione nell’intelligenza artificiale;
- migliorare la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e requisiti di sicurezza applicabili ai sistemi di IA;
facilitare lo sviluppo di un mercato unico
per applicazioni di IA lecite, sicure e affidabili nonché prevenire la frammentazione
del mercato.
Nel settembre dello scorso anno poi è
stata emanata una Direttiva Comunitaria
relativa all’adeguamento delle norme in
materia di responsabilità civile extracontrattuale relativa all’IA (Direttiva sulla Responsabilità da Intelligenza Artificiale).
La relazione introduttiva segnala che “Le
norme nazionali vigenti in materia di responsabilità, in particolare per colpa, non sono
adatte a gestire le azioni di responsabilità
per danni causati da prodotti e servizi basati sull’IA.
In base a tali norme, coloro che
subiscono un danno sono tenuti a dimostrare un’azione o un’omissione illecita da parte
della persona che ha causato il danno.
Le
caratteristiche specifiche dell’IA, tra cui la
complessità, l’autonomia e l’opacità (il cosiddetto effetto “scatola nera”), possono rendere difficile o eccessivamente costoso, per
quanti subiscono un danno, identificare
la persona responsabile e dimostrare che
sussistono i presupposti ai fini dell’esito
positivo di un’azione di responsabilità.
In
particolare, quando chiedono un risarcimento, i danneggiati potrebbero dover sostenere
costi iniziali molto elevati e affrontare procedimenti giudiziari notevolmente più lunghi
rispetto a quanto accade nei casi che non
riguardano l’IA, venendo pertanto del tutto
dissuasi dal chiedere un risarcimento”.
In estrema sintesi la nuova normativa dice
che i sistemi d’IA ad alto rischio possono
essere immessi sul mercato dell’Unione o
messi in servizio in altro modo, a condizione di rispettare i requisiti obbligatori.
La valutazione d’impatto deve includere
l’accuratezza prevista del sistema usato e le misure adottate per proteggere i
gruppi più vulnerabili di persone.
I produttori dovranno dimostrare il rispetto del Regolamento attraverso una dichiarazione europea di conformità.
Le imprese
conformi potranno, così, mostrare un marchio europeo di qualità connesso all’intelligenza artificiale, emesso dall’Autorità competente designata dai vari Stati membri.
La normativa prende in esame i danni
causati da applicazioni ad alto e basso rischio.
Questi danni possono riguardare sia
l’incolumità e la sicurezza delle persone,
sia interessi morali meritevoli di protezione,
come le offese alla reputazione e subentra
una responsabilità per colpa per sistemi a
basso rischio, quelli maggiormente diffusi e
una responsabilità oggettiva per quelli ad
alto rischio.
La distinzione tra i due tipi di
responsabilità è rilevante per chi poi dovrà
pagare i danni e pertanto riguarderà soprattutto il costo dell’assicurazione.
La responsabilità per colpa viene determinata dal
concetto di “danno ingiusto”, derivante
dal mancato rispetto dei classici doveri
di cura, di informazione e controllo.
I datori di lavoro ed i colleghi con delega
per la sicurezza la “negligenza” consisterà
nell’omessa vigilanza e nel mancato intervento per prevenire possibili azioni pericolose messe in atto da un addetto.
La
Direttiva precisa che le responsabilità
gravi in via solidale ricadono sia su coloro che hanno mansioni di controllo su
un rischio connesso al funzionamento
dell’IA, sia su coloro che definiscono le
caratteristiche della tecnologia e forniscono un controllo sui possibili rischi
connessi al funzionamento dell’IA.
E i robot “intelligenti”, quelli che imparano e
potremmo dire che diventano “autonomi”?
La Direttiva dice che comunque il robot è
creato e programmato da mani umane e
che quindi la responsabilità rimane.
Le pene pecuniarie per l’accertata responsabilità sono piuttosto salate e possono arrivare fino a 2 M€ in caso di morte o danni
gravi alla salute e all’integrità fisica.
Per i colleghi che hanno avuto “in dono”
anche la delega per la Sicurezza Aziendale, è sicuramente un aggravio di responsabilità, oltre che di competenze necessarie per gestire un mondo in rapidissima
evoluzione, con la normativa che arranca
nel cercare di stare al passo con la tecnologia digitale sempre più invasiva.
Il D. Lgs. 09 aprile 2008, n. 81 è stato aggiornato negli anni, l’ultimo aggiornamento è dell’agosto 2022, ma non ha ancora preso in esame le problematiche introdotte, nelle aziende, dalla robotica.
La
parola robot compare solo due volte, una
nell’Allegato V, per i requisiti di sicurezza
delle attrezzature di lavoro e quando si citano gli impianti di sollevamento, trasporto
e movimentazione dei materiali, con i robot
manipolatori.
Per quel che riguarda l’IA, ancora nulla!
Unitamente alla proposta di regolamento
sulle applicazioni di AI, la Commissione
Ue ha presentato anche la bozza di regolamento sui robot, il Nuovo Regolamento
Macchine (New Machinery Product Regulation - MPR), destinato a sostituire la
“Direttiva Macchine” del 2006.
Questo nuovo Regolamento si propone,
con le relative norme tecniche armonizzate,
di valutare correttamente le applicazioni
che utilizzano robot collaborativi (COBOT o collaborative robot).
La preoccupazione è che, da un lato, tali applicazioni risultino poco sicure poiché
le norme armonizzate non sono adeguatamente aggiornate e, dall’altro, che il Regolamento sui prodotti Macchine (MPR) o le
norme armonizzate ostacolino il pieno sviluppo di questa nuova e importante evoluzione industriale.
La formazione assumerà sempre più un
ruolo determinante nelle aziende e nella
società: qui però ci scontriamo, specialmente in Italia, con un quadro storico complicato, dato che stiamo affrontando un periodo di trasformazione epocale, nel quale
l’uomo sembra destinato a fondersi con le
macchine.
Potremmo dire che ci stiamo avviando
verso la coesistenza di tre mondi: quello fisico, quello digitale e quello in cui le
due dimensioni sembrano coesistere ed
ibridarsi.
Purtroppo la nostra società, a cominciare
dalla scuola è ancora in gran parte basata sulla tradizionale dimensione fisica, trasmettendo competenze che formano professioni che rischiano di essere già oggi,
per molti versi, superate.
Serve invece
un programma educativo che promuova le
capacità di stare e di operare nel moderno
mondo tecnologico; occorre allenare il pensiero, sviluppare l’intelligenza critica, prepararsi all’incerto e all’imprevisto, imparare infine a selezionare le informazioni importanti e
rilevanti per evitare di essere travolti dalla disinformazione che sta diventando dilagante.
Quanto impiegherà la nostra scuola ad
adeguarsi? Come diceva il Manzoni “Ai posteri l’ardua sentenza”.
06 aprile 2023