Dall’Indonesia all’Italia: Grok, l’AI di Musk, e il nuovo reato di deepfake sessuali

 

La decisione dell’Indonesia di bloccare temporaneamente Grok, l’intelligenza artificiale sviluppata da xAI e promossa da Elon Musk, ha riacceso un dibattito globale che va ben oltre i confini del Sud-Est asiatico. Secondo quanto riportato da RT, le autorità indonesiane hanno motivato il provvedimento con la diffusione di contenuti pornografici e sessualizzati generati dall’AI, ritenuti incompatibili con le leggi e i valori locali.

Ma il punto centrale non è solo la censura indonesiana. Il caso Grok mostra come la generazione di immagini sessualizzate di persone reali tramite intelligenza artificiale sia ormai un problema giuridico internazionale. E l’Italia, dal 2025, ha scelto una linea particolarmente netta.

Il contesto globale: Grok e la responsabilità delle piattaforme

Grok si è distinto fin dall’inizio per un approccio meno restrittivo rispetto ad altri modelli AI, soprattutto in ambito politico e satirico. Tuttavia, questa “libertà” ha prodotto un effetto collaterale prevedibile: la rapida circolazione di immagini realistiche e sessualizzate di personaggi pubblici, spesso senza consenso.

Il caso più eclatante di inizio 2026 riguarda il primo ministro britannico Keir Starmer, bersaglio di immagini AI-generated che lo ritraggono nudo, semi-nudo, in bikini o con espliciti riferimenti sessuali. Alcune di queste immagini sono state rilanciate direttamente su X, contribuendo a normalizzare una pratica che, in molti ordinamenti, sta diventando penalmente rilevante.

La risposta italiana: il nuovo art. 612-quater c.p.

In Italia, il quadro è cambiato radicalmente con la Legge 132/2025, che ha introdotto nel Codice Penale l’articolo 612-quater, dedicato alla diffusione illecita di immagini alterate o generate con l’intelligenza artificiale.

La norma colpisce chi diffonde senza consenso immagini realistiche di una persona reale, quando tali immagini:

  • sono alterate o generate con sistemi di IA;

  • sono idonee a indurre in inganno sulla loro genuinità;

  • arrecano un danno ingiusto alla persona ritratta.

La pena prevista è severa: reclusione da 1 a 5 anni, con procedibilità a querela di parte.

Perché le immagini “in bichini” di Starmer rientrano quasi sempre nel reato

Applicando la norma ai casi concreti che circolano in questi giorni (gennaio 2026), il quadro è piuttosto chiaro:

Elemento richiesto dalla normaSituazione realePresente
Generazione/alterazione con IAImmagini create con Grok o strumenti simili
Idoneità a ingannareMolte immagini sono altamente realistiche✅ spesso
Diffusione senza consensoNessun consenso, anzi protesta pubblica
Danno ingiustoRidicolizzazione e danno reputazionale di un premier in carica

In particolare:

  • Starmer in bikini, anche se presentato come “meme” o “satira”, non è automaticamente lecito: la satira non elimina il danno quando l’immagine è sessualizzata e credibile.

  • Nudo integrale, bulge, dettagli espliciti (“buchini”) → probabilità altissima di integrazione del reato.

  • Sessualizzazione meno esplicita (pose provocanti, costumi ridotti) → nella maggior parte dei casi comunque rilevante, se l’immagine appare realistica.

Le eccezioni: poche e difficili da invocare

La legge italiana non vieta in assoluto l’uso dell’AI per meme o satira, ma le eccezioni sono molto limitate:

  • immagine manifestamente irreale o caricaturale, tale da non poter ingannare nessuno (stile cartoon estremo, corpo fisicamente impossibile);

  • indicazioni chiarissime e visibili tipo “DEEPFAKE – SATIRA – NON REALE”, anche se non costituiscono una garanzia assoluta;

  • creazione privata mai diffusa: il reato punisce la diffusione, non la mera generazione.

Il rischio concreto per gli utenti italiani

In termini pratici, la situazione è questa:

Un utente italiano che pubblica, ritwitta o inoltra su social, Telegram o WhatsApp un’immagine AI realistica e sessualizzata di Starmer corre un rischio penale concreto.

Il reato è procedibile a querela, ma il contesto politico rende questo scenario tutt’altro che teorico. Il governo britannico ha reagito duramente, con Starmer che ha persino evocato l’ipotesi di un ban di X nel Regno Unito. È plausibile che Londra spinga per azioni giudiziarie anche in altri Paesi europei, Italia compresa.

Conclusione

Il blocco di Grok in Indonesia e il caos intorno alle immagini AI di Starmer mostrano una realtà ormai evidente:
l’intelligenza artificiale ha superato il confine del semplice meme, entrando in una zona in cui reputazione, dignità personale e diritto penale si intrecciano.

In Italia la linea è stata tracciata con chiarezza:
👉 quando l’AI viene usata per creare immagini sessualizzate realistiche di persone reali, senza consenso, il rischio penale è la regola, non l’eccezione.

Non è la fine della satira, ma è la fine dell’illusione che “è solo un meme” basti a mettere al riparo dalle conseguenze.

Commenti

Post popolari in questo blog

Stasi è colpevole, si o no? Cosa ha stabilito la Cassazione

Perché l'"ebraismo mondiale" non ama Israele

Perché i bambini svedesi stanno diventando sempre più gangster