ChatGPT e intelligenza artificiale siano etici

Chat automatiche in grado di rispondere in autonomia

Daniele Damele  

Presidente Federmanager Friuli Venezia Giulia
ChatGPT (Chatbot Generative Pre-trained Transformer sviluppato da OpenAI) è un software programmato per sostenere una conversazione scritta e rispondere a qualsiasi tipo di domanda. 
In due mesi, si sono rivolte a ChatGPT oltre cento milioni di persone, un milione solo nei primi cinque giorni (dal 30 novembre al 5 dicembre 2022). 

ChatGPT è stato affermato che è stata rilasciata con una serie di criteri etici per evitare risposte pericolose. Come sempre è noto che colpevole non è l’arma, ma chi la usa per uccidere. E in effetti i processi si fanno agli assassini, non alle armi. Allo stesso modo, non avrebbe senso fare un processo a ChatGPT, l’intelligenza artificiale sviluppata da OpenAI, solo perché qualcuno l’ha usata per scrivere fake news. 

Tuttavia, con la straordinaria capacità creativa di Chat GPT, le intelligenze artificiali sono sempre più sviluppate e allo stesso tempo accessibili a chiunque. Strumenti sempre più efficienti nelle mani di tutti. Non ha, quindi, senso fare un processo a ChatGPT. 

Ma uno strumento così potente, forse, andrebbe prodotto con attenzione. Evidentemente anche a San Francisco, sede della startup OpenAI, devono aver pensato a questo problema, visto che la versione finale del software è stata rilasciata con le dovute precauzioni. 
Grazie a una serie di criteri etici sviluppati dai suoi creatori, Chat GPT è capace di riconoscere input pericolosi, quindi di auto-censurarsi e non rispondere. 

Per esempio, se le chiederete di elaborare un articolo di giornale su un personaggio famoso o no accusato di un reato penale, la risposta sarà categorica: non è mai successo, non posso scriverne. 
Peccato però che i criteri del software siano facilmente eludibili, come ha rivelato Swascan, società milanese che si occupa di cyber security. 

E in effetti non ci voleva molto per trovare la falla nel sistema: andando per tentativi, si scopre che ChatGPT non sarebbe mai disposta a scrivere una vera news che accusi qualcuno di qualcosa che non ha mai fatto, ma una finta notizia sì. Riformulando la frase di input, si avrà un articolo spacciabile per vero, al netto di piccole correzioni da applicare. 

Al di là della falla nel codice etico di ChatGPT, che gli sviluppatori si stanno impegnando a risolvere, con il software di OpenAI si pone una questione fondamentale: è lecito introdurre principi che possano regolare il funzionamento di un’intelligenza artificiale? Da una parte, c’è un problema di sviluppo. 

Criteri etici come quelli applicati da OpenAI su ChatGPT risultano restrittivi in ottica di machine learning, visto che l’intelligenza artificiale avrebbe occasione di svilupparsi maggiormente se non fosse sottoposta a limitazioni. 

È una posizione tendenzialmente americana, ben resa da un moto famoso nella Silicon Valley: prima il progresso, poi si vedrà. Non a caso, nel 2020 l’amministrazione Trump aveva scoraggiato l’adozione di regolamentazioni troppo stringenti sull’IA, portando le stesse argomentazioni. 

Più criteri, meno input, meno sviluppo. Al contrario, in Europa siamo meno concessivi – e San Francisco, a quanto pare, sta con noi. La normativa europea (GDPR) incoraggia l’adozione di misure come queste, che tutelano la persona prima dello sviluppo tecnologico. 
Misure che limitano l’impiego di dati personali, ad esempio, cercando di porre come condizione il consenso (e quindi la tutela) dell’utente. 

Quindi come ci si deve porre? Accettare il rischio che chiunque possa simulare una dichiarazione di Barack Obama? 
Oppure no, porre criteri, ma allo stesso tempo rallentare gli sviluppi di un’IA che già domani potrebbe essere ancora più efficiente? 

Nel dubbio, si può scegliere una via di mezzo, come hanno fatto a San Francisco: accettare il rischio, per non privarci di una tecnologia sempre più performante e simile alla nostra intelligenza, ma essere disposti a limitare i pericoli. 

Meglio che ci sia qualche criterio, meglio preferire la via etica. 
È certamente sempre più saggio scusarsi in anticipo, piuttosto che doverlo fare dopo.