ChatGPT e intelligenza artificiale siano etici
Chat automatiche in grado di rispondere in autonomia
Daniele Damele
Presidente Federmanager Friuli Venezia Giulia
ChatGPT (Chatbot Generative Pre-trained Transformer sviluppato da OpenAI) è un software programmato per sostenere
una conversazione scritta e rispondere a qualsiasi tipo
di domanda.
In due mesi, si sono rivolte a ChatGPT
oltre cento milioni di persone, un milione solo nei primi
cinque giorni (dal 30 novembre al 5 dicembre 2022).
ChatGPT è stato affermato che è stata rilasciata con
una serie di criteri etici per evitare risposte pericolose.
Come sempre è noto che colpevole non è l’arma, ma
chi la usa per uccidere. E in effetti i processi si fanno
agli assassini, non alle armi.
Allo stesso modo, non avrebbe senso fare un processo
a ChatGPT, l’intelligenza artificiale sviluppata da OpenAI, solo perché qualcuno l’ha usata per scrivere fake
news.
Tuttavia, con la straordinaria capacità creativa
di Chat GPT, le intelligenze artificiali sono sempre più
sviluppate e allo stesso tempo accessibili a chiunque.
Strumenti sempre più efficienti nelle mani di tutti. Non
ha, quindi, senso fare un processo a ChatGPT.
Ma uno
strumento così potente, forse, andrebbe prodotto con
attenzione.
Evidentemente anche a San Francisco, sede della startup OpenAI, devono aver pensato a questo problema,
visto che la versione finale del software è stata rilasciata
con le dovute precauzioni.
Grazie a una serie di criteri
etici sviluppati dai suoi creatori, Chat GPT è capace di
riconoscere input pericolosi, quindi di auto-censurarsi
e non rispondere.
Per esempio, se le chiederete di elaborare un articolo di giornale su un personaggio famoso o no accusato di un reato penale, la risposta sarà
categorica: non è mai successo, non posso scriverne.
Peccato però che i criteri del software siano facilmente
eludibili, come ha rivelato Swascan, società milanese
che si occupa di cyber security.
E in effetti non ci voleva molto per trovare la falla nel sistema: andando per
tentativi, si scopre che ChatGPT non sarebbe mai disposta a scrivere una vera news che accusi qualcuno
di qualcosa che non ha mai fatto, ma una finta notizia
sì. Riformulando la frase di input, si avrà un articolo
spacciabile per vero, al netto di piccole correzioni da
applicare.
Al di là della falla nel codice etico di ChatGPT, che gli
sviluppatori si stanno impegnando a risolvere, con il
software di OpenAI si pone una questione fondamentale: è lecito introdurre principi che possano regolare
il funzionamento di un’intelligenza artificiale? Da una
parte, c’è un problema di sviluppo.
Criteri etici come
quelli applicati da OpenAI su ChatGPT risultano restrittivi in ottica di machine learning, visto che l’intelligenza
artificiale avrebbe occasione di svilupparsi maggiormente se non fosse sottoposta a limitazioni.
È una posizione tendenzialmente americana, ben resa da un moto famoso nella Silicon Valley: prima il progresso, poi si
vedrà. Non a caso, nel 2020 l’amministrazione Trump
aveva scoraggiato l’adozione di regolamentazioni troppo stringenti sull’IA, portando le stesse argomentazioni.
Più criteri, meno input, meno sviluppo.
Al contrario, in Europa siamo meno concessivi – e San
Francisco, a quanto pare, sta con noi. La normativa europea (GDPR) incoraggia l’adozione di misure come
queste, che tutelano la persona prima dello sviluppo
tecnologico.
Misure che limitano l’impiego di dati personali, ad esempio, cercando di porre come condizione il consenso (e quindi la tutela) dell’utente.
Quindi come ci si deve porre? Accettare il rischio che
chiunque possa simulare una dichiarazione di Barack
Obama?
Oppure no, porre criteri, ma allo stesso tempo rallentare gli sviluppi di un’IA che già domani potrebbe
essere ancora più efficiente?
Nel dubbio, si può scegliere una via di mezzo, come
hanno fatto a San Francisco: accettare il rischio, per
non privarci di una tecnologia sempre più performante e simile alla nostra intelligenza, ma essere disposti
a limitare i pericoli.
Meglio che ci sia qualche criterio,
meglio preferire la via etica.
È certamente sempre più saggio scusarsi in anticipo,
piuttosto che doverlo fare dopo.
19 maggio 2023