Site icon Telepress

Deepfake sessuali e AI, guai per Elon Musk

dream-effortlessly for free

dream-effortlessly for free

La diffusione su larga scala di immagini deepfake a sfondo sessuale, in cui persone reali vengono rappresentate in contesti intimi “inventati” e senza consenso, è tornata al centro dell’attenzione globale. Un fenomeno noto da anni, ma che ha assunto una dimensione inedita con l’accessibilità dei modelli di intelligenza artificiale generativa, sollevando interrogativi sempre più urgenti sul controllo e sulla responsabilità delle piattaforme.

Al centro della recente ondata di critiche c’è Grok, il chatbot sviluppato da xAI e integrato nella piattaforma X di proprietà di Elon Musk. Un’indagine di Bloomberg ha rilevato che, sulla base di un’analisi dell’attività del profilo ufficiale @Grok, in un solo giorno venivano pubblicate in media 6.700 immagini all’ora classificate come “sessualmente suggestive” o progettate per “spogliare” i soggetti ritratti nelle foto originali. Un volume che, secondo la stessa inchiesta, supererebbe di 84 volte (!) quello complessivo di tutti i siti specializzati in deepfake pornografici.

A differenza di OpenAI, Google e Anthropic, che hanno introdotto blocchi tecnici per impedire la creazione di immagini sessuali di persone reali, Grok non avrebbe inizialmente applicato restrizioni efficaci. Questo vuoto di controllo ha favorito l’uso dello strumento per trasformare foto di donne vestite in immagini nude o sessualizzate, senza alcun consenso.

A rendere il caso ancora più esplosivo è ora la prima denuncia personale legata direttamente a Grok. Ashley St. Clair, ex influencer trumpiana ma soprattutto ex compagna di Elon Musk e madre di suo figlio Romulus, ha raccontato a Cbs News lo shock di essersi vista trasformata in immagini di nudo generate con l’intelligenza artificiale: «La cosa peggiore per me è stata vedermi denudata, piegata in avanti… e poi vedere lo zainetto di mio figlio sullo sfondo».

La ventisettenne ha citato in giudizio xAI davanti a un tribunale dello stato di New York, sostenendo che il sistema sia «irragionevolmente pericoloso per come è stato progettato» e rappresenti un rischio per il pubblico. Ha chiesto anche un’ingiunzione per tentare di fermare la generazione di nuovi deepfake che la riguardano. xAI ha risposto con una controdenuncia, sostenendo che la donna avrebbe violato i termini di servizio di X, che prevedono la competenza esclusiva dei tribunali del Texas.

Il caso Grok entra così in una nuova fase: non più soltanto un problema di regolazione tecnologica, ma una vicenda giudiziaria con una vittima identificabile, legata direttamente all’uomo che controlla l’azienda accusata. Un passaggio che rafforza il nodo politico e giuridico dell’intera storia: fino a che punto una piattaforma può dirsi responsabile quando uno strumento consente, su larga scala, la produzione di immagini intime non consensuali? E quanto tempo potrà ancora passare prima che le risposte normative superino i danni già prodotti?

Le autorità non sono rimaste a guardare. Nel Regno Unito, secondo Reuters, Ofcom ha avviato una verifica formale su X per accertare possibili violazioni della normativa sulla sicurezza online. Il primo ministro Keir Starmer ha definito il tema “una priorità”, annunciando l’intenzione di rendere esplicitamente illegale la creazione di deepfake sessuali. Negli Stati Uniti, come riportato dal Guardian, il procuratore generale della California ha aperto un’indagine per valutare se l’uso di Grok violi le leggi statali sulla privacy e contro la violenza digitale. In Asia, paesi come Indonesia e Malesia hanno scelto una linea ancora più dura, bloccando temporaneamente l’accesso allo strumento per il rischio di diffusione di contenuti pornografici generati dall’AI, compresi casi potenzialmente legati a minori.

Sotto questa pressione crescente, X e xAI hanno annunciato alcune contromisure: limitazioni alle funzioni di generazione delle immagini e restrizioni tecniche e geografiche. Interventi che, come ha osservato Business Insider, non affrontano però il problema dei contenuti già creati e diffusi, né chiariscono quali provvedimenti verranno presi nei confronti degli utenti che li hanno prodotti. Perché nel frattempo, nonostante gli annunci ufficiali, numerose immagini deepfake resterebbero ancora presenti sulla piattaforma.

Exit mobile version