È un modello linguistico con 500 miliardi di parole creato da un gruppo di ricerca della Sapienza di Roma con il supercomputer Leonardo
Si chiama Minerva ed è un insieme di modelli linguistici, “addestrati” in italiano e in inglese con 500 miliardi di parole e destinati a crescere nel tempo. È la base di possibili evoluzioni di ChatGPT, però del tutto trasparenti e made in Italy, in quanto creata dal gruppo di ricerca Natural Language Processing (Nlp) della Sapienza di Roma, nell’ambito di Fair – Future Artificial Intelligence Research, grazie alla potenza del supercomputer Leonardo del Cineca.
Quelli di Minerva sono modelli creati e addestrati da zero impiegando testi open source, al contrario di quelli italiani finora sviluppati in Italia, che sono basati sull’adattamento di modelli come LLaMA e Mistral, che hanno dati di addestramento sconosciuti. I tre modelli Minerva sinora attrezzati sono stati “nutriti” con fonti italiane e inglesi, online e documentate: un totale di oltre 500 miliardi di parole che equivalgono più di 5 milioni di romanzi. Molto più di quanto una comune intelligenza umana possa anche solo sognare di leggere in una vita, soprattutto in Italia dove la media è di 7,4 libri l’anno.
Fair è il progetto guidato dal Consiglio Nazionale delle Ricerche che realizza la strategia nazionale sull’IA. Al momento il suo output Minerva serve alla comunità scientifica italiana ma la previsione è che, in tempi relativamente brevi, venga messo al servizio di utenti comuni attraverso una chat, come fa ChatGPT. Gli sviluppi nel settore sono molto veloci e in Italia stanno ricevendo anche il supporto dei fondi del PNRR.
di Daniela Faggion