Il concetto di verità è da sempre assai labile. Un tempo la sua versione un po’ fantasiosa si chiamava “favola”, “leggenda”, “mito”. Poi, si è evoluta in “romanzo” ed è degenerata in “leggenda metropolitana”, “bufala”, “fake news”, fino alle invenzioni più folli del complottismo, tutt’altro che innocue. A tutto questo può essere messo un confine, anzi, deve essere messo anche grazie alla scienza, visti i tempi di spam social e nuove creazioni dell’intelligenza artificiale.
In questo senso, in Italia, si mostra all’avanguardia la Scuola Superiore Sant’Anna di Pisa, che nel mese di marzo 2026 ha lanciato due iniziative molto importanti: da un lato, il podcast “Stroncate Scientifiche”, che promette di affrontare le fake news con rigore scientifico, spirito critico e un pizzico di ironia; dall’altro, il convegno internazionale “Disinformation and Conspiracy Theories in the Digital Age: Analysis and Counterstrategies”, un’iniziativa che ha riunito esperte ed esperti di diversi ambiti disciplinari per discutere le trasformazioni dell’ecosistema informativo nell’era digitale e le sfide poste dalla diffusione della disinformazione e delle teorie cospirative.
Telepress ha il piacere di confrontarsi con due esperti della materia dell’istituto universitario superiore della città toscana. Gaia Fiorinelli, ricercatrice di diritto penale, e Marco Solinas, professore di Filosofia Politica esperto, fra gli altri argomenti, di teorie cospirative.
Dottoressa Fiorinelli, lei ha partecipato alla prima stagione delle Stroncate Scientifiche con una puntata relativa all’idea che la polizia predittiva possa eliminare la criminalità. Innanzitutto, che cos’è la polizia predittiva e perché resta fallibile?
Nella puntata del podcast abbiamo provato a smontare l’idea fantascientifica che le nuove tecnologie possano arrivare a prevedere singoli reati – o addirittura mere intenzioni – come nel film Minority Report. Oggi, con “polizia predittiva” si intende qualcosa di molto diverso: l’impiego di metodi statistici ed eventualmente dell’intelligenza artificiale per analizzare dati di varia natura e individuare aree o contesti (c.d. hotspot) in cui è più probabile che vengano commessi reati. Non si deve trattare di giudizi prognostici basati sulla profilazione di singoli individui, ma piuttosto di una sorta di “previsioni meteo della criminalità” – come diciamo nella puntata – utili a orientare le attività di prevenzione e controllo sul territorio. Va anche detto che, al di là dell’attuale hype, non siamo di fronte a una novità: in Italia queste tecniche sono studiate e sperimentate da anni. Resta però una tecnologia intrinsecamente fallibile e rischiosa. Fallibile, perché si basa su dati del passato, quindi non può anticipare ciò che imprevedibile. Anzi, può finire per riprodurre automaticamente schemi già esistenti, trasformandosi in una sorta di “profezia che si autoavvera” e proiettando sul futuro discriminazioni, disuguaglianze e bias del presente. Rischiosa, perché può contribuire a legittimare modelli di sorveglianza fondati su una raccolta sempre più estesa e invasiva di dati e, allo stesso tempo, oscurare un punto fondamentale: la prevenzione della criminalità è una questione politica e sociale molto più complessa della semplice sofisticazione degli strumenti di controllo.
Lei è autrice del volume “La violenza mediata dalla tecnologia”. C’è qualche spazio per le fake news anche in questo?
Sì, credo che i punti di contatto siano molti e questa domanda mi permette anche di raccogliere diversi spunti emersi durante il convegno. Nel libro, pubblicato alla fine del 2024, cerco di capire come, nella prospettiva del diritto penale, il contesto digitale trasformi sia il concetto di “violenza”, sia le relative strategie di contrasto. Pensiamo, ad esempio, alle molestie online, al cyberstalking o al cyberbullismo: non sono meno reali né meno lesivi solo perché manca un contatto fisico. In questo quadro, mi sembra che il legame con le fake news possa emergere sotto diversi profili. Il primo riguarda una forma particolarmente insidiosa di disinformazione: i deepfake, cioè immagini, audio o video manipolati tramite intelligenza artificiale. Questi contenuti possono non solo fuorviare l’opinione pubblica, ma anche colpire persone specifiche, con l’effetto di delegittimarle o denigrarle: in questi casi essi diventano veri e propri strumenti di violenza digitale. Il rapporto tra informazione e violenza online è inoltre riconosciuto anche a livello europeo: la recente Direttiva sul contrasto alla cyber-violenza di genere (2024/1385) – che l’Italia dovrà recepire entro il 14 giugno 2027 – sottolinea come le aggressioni online prendano spesso di mira donne politiche, attiviste e giornaliste, per ridurle al silenzio ed escluderle dal discorso pubblico. In questo senso, la disinformazione non consiste soltanto nella diffusione di notizie false, ma può realizzarsi anche attraverso la marginalizzazione di determinate fonti e l’ostacolo al confronto. C’è infine un terzo profilo, su cui abbiamo riflettuto anche durante il convegno: fake news e teorie cospirative possono alimentare e amplificare narrazioni e dinamiche di ostilità verso gruppi e minoranze, trasformandosi in veri e propri discorsi d’odio.
Secondo Lei, come il diritto può aiutare a contrastare le informazioni distorte?
Il diritto può avere un ruolo importante nel contrasto alla disinformazione, ma è necessario chiarire in che senso. Io mi occupo di diritto penale e non credo che la risposta all’attuale disordine informativo stia nella criminalizzazione generalizzata di chi diffonde informazioni false. Com’è noto, online è spesso difficile risalire a chi si cela dietro a un post o un profilo: norme di questo tipo rischierebbero di essere poco effettive, se non meramente simboliche. Soprattutto, nei pochi casi in cui venissero applicate, affiderebbero al giudice il compito molto delicato di tracciare il confine tra vero e falso. Questo non significa che il diritto penale non abbia alcun ruolo: può intervenire, ma in ambiti ben delimitati, ad esempio quando la diffusione deliberata di notizie false inneschi specifici episodi di violenza o alteri le dinamiche del mercato, come già previsto in alcuni settori. Il diritto penale, però, non può rappresentare la soluzione generale al problema della disinformazione. Piuttosto, spetta ad altri rami del diritto promuovere e proteggere un ecosistema informativo “sano”. Promuovere, in particolare, il pluralismo delle fonti, strumenti informativi accessibili e affidabili, così come iniziative di formazione e alfabetizzazione digitale. E proteggere la qualità dell’informazione, la libertà dei media e la partecipazione effettiva di tutte le voci al dibattito pubblico.
Professor Solinas, fra i temi del convegno c’è stato anche l’impatto dell’IA nella produzione e diffusione delle notizie. C’è modo di difendersi?
L’intelligenza artificiale svolge ormai un ruolo sempre più centrale nella diffusione di notizie false. Basti pensare agli ormai noti e consolidati bot, cioè programmi che gestiscono falsi account e possono disseminare su centinaia di migliaia di canali un dato contenuto, presentandolo come condiviso da persone reali. Per difendersi da queste tecnologie, e più in generale dalle fake news e dalle campagne di disinformazione, talvolta orchestrate anche da grandi gruppi, istituzioni e persino organizzazioni statuali (come nel caso della Russia), al momento vi sono due strade principali percorribili. La prima è normativa e consiste essenzialmente nel varare un quadro legislativo che imponga alle grandi piattaforme digitali di rispettare determinati criteri e regole tali da limitare l’impatto della disinformazione. È la via che sta perseguendo con grande determinazione e tenacia la Commissione Europea. Purtroppo, ci sono grandi interessi economici, incarnati dalle grandi big tech, e indirizzi politici, prevalentemente di taglio autoritario, che si oppongono a queste limitazioni. La seconda via rimanda alla necessità di educare e formare la cittadinanza all’uso critico delle nuove tecnologie digitali. La rivoluzione digitale ha cambiato e sta cambiando profondamente l’intero ecosistema informativo, è pertanto necessario alfabetizzare in tal senso tutte le diverse della cittadinanza.
Jessica Foster – immagine da Instagram
Ha fatto molto scalpore di recente l’immagine della soldatessa proTrump – giovane, carina e credibilissima in divisa – che si è rivelata essere una creazione AI. Lei ci sa dire da quali elementi è possibile riconoscere un’immagine AI?
Dipende. Se le immagini o i video sono fatti bene, con strumenti raffinati, non è proprio possibile distinguerli da immagini “reali” sul piano della resa. Del resto, con l’AI vengono realizzati ormai da tempo interi film che sembrano assolutamente reali. Sul piano estetico-percettivo, la soglia è saltata. Viceversa, se le immagini e i video realizzati sono realizzati con mezzi di basso profilo (come spesso ancora avviene), è ovviamente possibile distinguerle: contorni sfumati, imperfezioni, movimenti non naturali etc. Per quanto riguarda le fake news e la disinformazione, svolgono un ruolo determinate anche le immagini o i video modificati, oppure decontestualizzati e ricontestualizzati in modo deliberatamente fuorviante: per esempio usando una immagine per descrivere un evento che in verità è diverso. Sia in questi casi, sia per le deepfake lo smascheramento non può che poggiare su un’analisi approfondita e attenta del contesto complessivo, tale da includere una indagine sulle fonti, sui dati stessi etc. In una parola, è necessario un giornalismo di qualità.
Qual è la relazione tra fake news e complottismo?
Ci sono diverse differenze tra fake news e teorie cospirative. Anzitutto, le notizie false usualmente possono essere smascherate in un modo che, sul piano del metodo, è relativamente poco controverso: si dimostra che quel dato contenuto non corrisponde ai fatti. Per esempio, se una fake dice che Donald Trump ieri sera ha attaccato la Francia facendo bombardare Parigi, diffondendo magari un video del bombardamento realizzato con l’intelligenza artificiale, basterà mostrare, con altri video, immagini, interviste etc., che Parigi ieri sera non è stata bombardata. Certo, a volte non è così semplice dimostrare la falsità di una certa notizia e, soprattutto, una volta che una fake news si è diffusa, la sua smentita può arrivare troppo tardi ed essere così meno impattante della fake stessa, oppure arrivare soltanto a una esigua minoranza della platea originaria. È una dinamica ben nota a chi diffonde fake news, che contano su questo ritardo e su queste difficoltà. Tuttavia, al cospetto dei fatti, una fake in senso classico può sempre essere smascherata. Le teorie cospirative no. Si tratta di narrazioni caratterizzate da una costituiva “impermeabilità”: sono “auto-sigillate” nel senso che ogni controprova e contro-argomento rimbalza sul muro della loro “infalsificabilità”. Chi le adotta, ritiene che i presunti e fantasmatici cospiratori possano essere così potenti da poter costruire delle false prove che sembrano veridiche ma non lo sono. Prendiamo la teoria cospirativa che sostiene che l’allunaggio del 1969 sia un falso video realizzato in uno studio cinematografico allestito dalla NASA, con Stanley Kubrick come regista, per ragioni di propaganda anti-URSS. Chi adotta questa teoria sostiene altresì che tutte le interviste e i documenti che mostrano come le storie sul presunto video di Kubrick siano inconsistenti sarebbero non solo falsi, ma fornirebbero ulteriori (pseudo)prove del potere della NASA e dei servizi di intelligence degli USA nel manipolare l’opinione pubblica (mondiale). In letteratura si usa la metafora della “tana del Bianconiglio” ripresa da Alice nel paese delle meraviglie: chi entra nella tana delle teorie cospirative, può poi incontrare delle serie difficoltà ad uscirne, a differenza di chi inciampa in una fake news.

