L’esperimento è stato condotto da un senatore, mentre il mondo si interroga sul nuovo appello degli scienziati in merito ai rischi dell’AI.
Parlamento artificiale
L’Intelligenza artificiale determinerà realmente l’estinzione del genere umano? Quando siamo almeno al quarto appello sul tema da parte di personalità scientifiche di spicco, ecco che arriva anche al Parlamento italiano il primo discorso creato da una macchina. Nel corso di una seduta del Senato, a Palazzo Madama, il parlamentare di Azione Marco Lombardo ha letto il suo intervento in Aula, per poi rivelare la vera identità dell’autore. “Questo intervento vuole essere una provocazione per aprire un dibattito pubblico serio”, ha detto: “La crescita dell’intelligenza artificiale è impressionante e può comportare grandi opportunità”, ha detto Lombardo, invitando a riflettere però anche sui “rischi legati all’impiego dell’intelligenza artificiale, affinché la tecnologia sia al servizio dell’uomo e non costituisca una minaccia per la nostra democrazia”.
Anche la premier danese usa ChatGpt
Un esperimento analogo è stato condotto dalla premier danese Mette Frederiksen durante un suo intervento al parlamento di Copenhagen: “Ciò che vi ho appena letto non è mio. Né di qualsiasi altro umano”, ha dichiarato dopo aver letto un discorso preparato da ChatGpt senza che nessuno avesse percepito alcunché di strano. “Affascinante e terrificante ciò che è in grado di fare”, ha commentato la ministra riferendosi all’Intelligenza Artificiale. Così, mentre gli scienziati cercano di mettere in guardia sui rischi che il genere umano corre con l’intelligenza delle macchine, i politici cercano di fare altrettanto.
Il monito di oltre 350 esperti
Queste iniziative politiche arrivano negli stessi giorni in cui, proprio nei confronti dei politici di tutto il mondo, viene lanciato un nuovo monito sull’IA: dopo quelli dello scienziato Stephen Hawking, dello scrittore Eliezer Yudkowsky e dello scienziato Geoffrey Hinton (che ha addirittura lasciato Google per “poter parlare liberamente dei pericoli rappresentati dalle IA), è arrivato un appello firmato da oltre 350 esperti, fra professori e alti esponenti dell’I.T., affinché i politici considerino l’intelligenza artificiale come una minaccia per l’umanità al pari di pandemie e guerre nucleari. L’intelligenza artificiale comporterebbe un “rischio estinzione” da “mitigare” con priorità assoluta, si legge nel documento, una lettera pubblicata dal Center for AI Safety (Cais). A firmarla, fra gli altri, Sam Altman, amministratore delegato di OpenAI, che ha creato ChatGpt, insieme allo stesso Geoffrey Hinton e Yoshua Bengio, considerati guru in materia.
Gli scienziati italiani preoccupati
E in Italia? Quali sono state le reazioni del mondo scientifico? “Servono regole per gestire algoritmi potenti come quelli dell’intelligenza artificiale e per evitare effetti imprevisti”, ha commentato il fisico Roberto Battiston, dell’Università di Trento, tra i firmatari della dichiarazione. “Questo tipo di algoritmi di Intelligenza artificiale generativa si sono rivelati così potenti nell’interfacciare le persone utilizzando i dati presenti sul Web e il linguaggio naturale, che potrebbero generare effetti secondari imprevisti”, osserva lo studioso, ammettendo che al momento nessuno sappia “realmente quali potrebbero essere questi effetti, positivi o negativi”.
Un altro invito alla cautela arriva da Luca Simoncini, esperto di tecnologie dell’informazione, ex docente di Ingegneria dell’informazione all’Università di Pisa ed ex direttore dell’Istituto di tecnologie dell’informazione del Consiglio Nazionale delle Ricerche. Secondo il suo parere, viaggiano in parallelo “rivoluzione” e “seri problemi”. Ci sono evidenti aspetti positivi, in campo biomedico e farmacologico, ad esempio, ma anche rischi potenzialmente molto elevati come la produzione di fake news o il controllo delle auto autonome. Secondo Simoncini servono regole chiare: “Spesso ci si dimentica che questi sistemi sono fallibili” e, poiché le grandi aziende del settore “basano le loro attività solo sulla prevalenza tecnologica, non si sono poste il problema di una regolamentazione”.
di Daniela Faggion