Site icon Telepress

Anche i chatbot sbagliano: risposte fake quasi raddoppiate

L’analisi di Newsguard punta il dito contro i dieci principali modelli di IA generativa. La maggiore rapidità di risposta dei chatbot ha causato una minore attendibilità, con una crescita di risultati falsi.

In un anno la percentuale di risposte contenenti fake news riguardanti l’attualità, generate dai sistemi di Intelligenza Artificiale, è passata dal 18% del 2024 al 35% dell’agosto 2025. Il dato emerge da una recente analisi di NewsGuard che ha testato la propensione dei dieci principali modelli di IA generativa a ripetere affermazioni non veritiere.

Secondo l’analisi di Newsguard, questo aumento è il risultato di un compromesso strutturale. Con l’introduzione delle ricerche in tempo reale, i chatbot hanno smesso di rifiutarsi di rispondere. Così è cresciuta quasi del doppio anche la probabilità che i modelli riportino informazioni false.

I dati del report

In media, dal luglio 2024 all’agosto 2025 il tasso di confutazione di informazioni false dei chatbot è salito dal 51 al 65%, mentre il tasso di non risposta è sceso dal 31 allo 0%, portando a una riduzione complessiva del tasso di errore dal 49 al 35%.

Nell’audit dell’agosto 2025, i chatbot che più spesso hanno fornito risposte contenenti informazioni false su argomenti di cronaca sono stati Inflection (56,67%) e Perplexity (46,67%). ChatGPT e Meta hanno diffuso affermazioni scorrette nel 40% dei casi, e Copilot e Mistral nel 36,67% dei casi. Al contrario, i chatbot con i tassi di errore più bassi sono stati Claude (10%) e Gemini (16,67%).

Chatbot più rapidi nelle risposte ma meno affidabili

Invece di segnalare i limiti temporali dei propri dati o di evitare argomenti delicati, i modelli linguistici ora attingono a un ecosistema informativo online confuso, spesso inquinato intenzionalmente da reti organizzate. In questo modo finiscono per trattare fonti poco affidabili come se fossero attendibili.

Chi diffonde contenuti ingannevoli sfrutta questa nuova disponibilità dei chatbot a rispondere alle domande di attualità, veicolando falsità attraverso siti con basso engagement, post sui social network e siti generati dall’IA che i modelli non riescono a distinguere da fonti giornalistiche serie. In breve, lo sforzo di rendere i chatbot più rapidi e tempestivi nel rispondere li ha fatti diventare anche più inclini a propagare informazioni scorrette.

Il report è stato realizzato tramite l’AI False Claims Monitor, il primo riferimento mensile standardizzato per valutare come i principali sistemi di IA generativa del mondo gestiscono affermazioni dimostrabilmente false su argomenti controversi o su temi che potrebbero essere sfruttati da attori malintenzionati per diffondere notizie false.

I rimedi annunciati delle aziende

Nel frattempo, le aziende di IA hanno lanciato aggiornamenti e collaborazioni di alto profilo per colmare la lacuna di precisione e fornire in futuro risposte più sicure per i loro modelli. Mistral ha annunciato una collaborazione con l’Agence France-Presse. OpenAI ha dichiarato che il suo ultimo modello GPT-5 “fornisce risposte più precise e affidabili, adattandosi al contesto dell’utente, al suo livello di conoscenza e alla geografia”. Google ha annunciato che il modello Gemini 2.5 offre “migliore accuratezza”.

Exit mobile version