AI Act, il nostro contributo alla consultazione UE
Grazie alla nostra Commissione di settore sull’Intelligenza artificiale, abbiamo inviato la risposta della Federazione alla consultazione pubblica europea
a cura della Redazione
Offrire il contributo qualificato della migliore managerialità italiana per una regolazione dell’IA che salvaguardi i diritti e garantisca, al contempo, la competitività europea. Con questa finalità la nostra Federazione ha partecipato, attraverso un documento articolato in più punti, alla consultazione multi-stakeholder lanciata dalla Commissione europea in merito alle Linee guida per l’applicazione della definizione di sistemi di Intelligenza artificiale (IA) e delle pratiche proibite ai sensi dell’Ai Act.
Proprio in una fase nevralgica della discussione sugli impatti dell’intelligenza artificiale – con l’AI Act dell’Ue adottato lo scorso giugno e il Ddl sull’IA attualmente al vaglio del Parlamento italiano – abbiamo inteso apportare un contributo di competenze fondamentale per la definizione delle politiche e la promozione di un’innovazione responsabile all’interno dell’Unione.
Nella risposta alla consultazione, conclusasi lo scorso 11 dicembre, ribadiamo infatti il nostro impegno fondato su una visione di fiducia verso le potenzialità dell’intelligenza artificiale, con il fine di trovare un punto di equilibrio tra innovazione e tutela dei diritti fondamentali. Segnaliamo inoltre alcune questioni critiche rilevate in aree chiave per la materia, fornendo raccomandazioni pratiche e richiedendo maggiore chiarezza su alcune disposizioni, al fine di garantire un’attuazione coerente ed efficace dell’AI Act in tutti i settori.
La risposta ha identificato cinque aree fondamentali che richiedono perfezionamenti nelle linee guida della Commissione:
- Chiarezza sulle definizioni dell’IA: sottolineiamo la necessità di una delimitazione precisa dei sistemi IA, in particolare per distinguere tra sistemi ad uso generale e quelli progettati esplicitamente per applicazioni ad alto rischio. Linee guida specifiche su elementi come adattività e meccanismi di inferenza sono essenziali per evitare interpretazioni errate e garantire l’allineamento normativo.
- Pratiche proibite ed eccezioni: affrontando le principali pratiche proibite, tra cui categorizzazione biometrica, riconoscimento delle emozioni e identificazione biometrica remota in tempo reale (Rbi), chiediamo esempi pratici e soglie operative per chiarire i casi d’uso consentiti nell’ambito di eccezioni rigorosamente regolamentate.
- Interazione con la legislazione dell’UE: evidenziamo le ambiguità nel modo in cui le disposizioni dell’Ai Act si intersecano con il Gdpr, le leggi sulla protezione dei consumatori e i regolamenti sui servizi digitali. Ad esempio, la sovrapposizione tra il consenso per la protezione dei dati e il divieto dell’Ai Act su alcune pratiche biometriche e di riconoscimento delle emozioni necessita di chiarimenti per prevenire conflitti legali.
- Preoccupazioni etiche nel riconoscimento biometrico ed emotivo: la risposta sottolinea i potenziali rischi di pregiudizi, discriminazioni e sorveglianza indebita posti dai sistemi Ia, soprattutto in contesti sensibili come istruzione e occupazione. Sottolineiamo la necessità di solidi meccanismi di salvaguardia, misure di responsabilità e ulteriore chiarezza sulle eccezioni per motivi medici e di sicurezza.
- Rbi in tempo reale e sicurezza pubblica: la risposta richiede linee guida precise sull’applicazione delle eccezioni per l’identificazione biometrica remota in tempo reale per scopi di pubblica sicurezza, sottolineando la necessità di salvaguardie come limitazioni geografiche e temporali e meccanismi di supervisione rigorosi.
Attraverso il contributo inviato per la consultazione, intendiamo quindi riaffermare il ruolo del management a supporto di una visione Ue che miri a un quadro armonizzato e affidabile sull’IA. Attraverso il nostro approccio volto a garantire chiarezza, equità e praticità operativa nelle linee guida della Commissione, puntiamo a lavorare insieme a un ecosistema europeo dell’IA che tuteli i diritti fondamentali e promuova la leadership tecnologica.
19 dicembre 2024