Dall’Indonesia all’Italia: Grok, l’AI di Musk, e il nuovo reato di deepfake sessuali
La decisione dell’Indonesia di bloccare temporaneamente Grok, l’intelligenza artificiale sviluppata da xAI e promossa da Elon Musk, ha riacceso un dibattito globale che va ben oltre i confini del Sud-Est asiatico. Secondo quanto riportato da RT, le autorità indonesiane hanno motivato il provvedimento con la diffusione di contenuti pornografici e sessualizzati generati dall’AI, ritenuti incompatibili con le leggi e i valori locali.
Ma il punto centrale non è solo la censura indonesiana. Il caso Grok mostra come la generazione di immagini sessualizzate di persone reali tramite intelligenza artificiale sia ormai un problema giuridico internazionale. E l’Italia, dal 2025, ha scelto una linea particolarmente netta.
Il contesto globale: Grok e la responsabilità delle piattaforme
Grok si è distinto fin dall’inizio per un approccio meno restrittivo rispetto ad altri modelli AI, soprattutto in ambito politico e satirico. Tuttavia, questa “libertà” ha prodotto un effetto collaterale prevedibile: la rapida circolazione di immagini realistiche e sessualizzate di personaggi pubblici, spesso senza consenso.
Il caso più eclatante di inizio 2026 riguarda il primo ministro britannico Keir Starmer, bersaglio di immagini AI-generated che lo ritraggono nudo, semi-nudo, in bikini o con espliciti riferimenti sessuali. Alcune di queste immagini sono state rilanciate direttamente su X, contribuendo a normalizzare una pratica che, in molti ordinamenti, sta diventando penalmente rilevante.
La risposta italiana: il nuovo art. 612-quater c.p.
In Italia, il quadro è cambiato radicalmente con la Legge 132/2025, che ha introdotto nel Codice Penale l’articolo 612-quater, dedicato alla diffusione illecita di immagini alterate o generate con l’intelligenza artificiale.
La norma colpisce chi diffonde senza consenso immagini realistiche di una persona reale, quando tali immagini:
-
sono alterate o generate con sistemi di IA;
-
sono idonee a indurre in inganno sulla loro genuinità;
-
arrecano un danno ingiusto alla persona ritratta.
La pena prevista è severa: reclusione da 1 a 5 anni, con procedibilità a querela di parte.
Perché le immagini “in bichini” di Starmer rientrano quasi sempre nel reato
Applicando la norma ai casi concreti che circolano in questi giorni (gennaio 2026), il quadro è piuttosto chiaro:
| Elemento richiesto dalla norma | Situazione reale | Presente |
|---|---|---|
| Generazione/alterazione con IA | Immagini create con Grok o strumenti simili | ✅ |
| Idoneità a ingannare | Molte immagini sono altamente realistiche | ✅ spesso |
| Diffusione senza consenso | Nessun consenso, anzi protesta pubblica | ✅ |
| Danno ingiusto | Ridicolizzazione e danno reputazionale di un premier in carica | ✅ |
In particolare:
-
Starmer in bikini, anche se presentato come “meme” o “satira”, non è automaticamente lecito: la satira non elimina il danno quando l’immagine è sessualizzata e credibile.
-
Nudo integrale, bulge, dettagli espliciti (“buchini”) → probabilità altissima di integrazione del reato.
-
Sessualizzazione meno esplicita (pose provocanti, costumi ridotti) → nella maggior parte dei casi comunque rilevante, se l’immagine appare realistica.
Le eccezioni: poche e difficili da invocare
La legge italiana non vieta in assoluto l’uso dell’AI per meme o satira, ma le eccezioni sono molto limitate:
-
immagine manifestamente irreale o caricaturale, tale da non poter ingannare nessuno (stile cartoon estremo, corpo fisicamente impossibile);
-
indicazioni chiarissime e visibili tipo “DEEPFAKE – SATIRA – NON REALE”, anche se non costituiscono una garanzia assoluta;
-
creazione privata mai diffusa: il reato punisce la diffusione, non la mera generazione.
Il rischio concreto per gli utenti italiani
In termini pratici, la situazione è questa:
Un utente italiano che pubblica, ritwitta o inoltra su social, Telegram o WhatsApp un’immagine AI realistica e sessualizzata di Starmer corre un rischio penale concreto.
Il reato è procedibile a querela, ma il contesto politico rende questo scenario tutt’altro che teorico. Il governo britannico ha reagito duramente, con Starmer che ha persino evocato l’ipotesi di un ban di X nel Regno Unito. È plausibile che Londra spinga per azioni giudiziarie anche in altri Paesi europei, Italia compresa.
Conclusione
Il blocco di Grok in Indonesia e il caos intorno alle immagini AI di Starmer mostrano una realtà ormai evidente:
l’intelligenza artificiale ha superato il confine del semplice meme, entrando in una zona in cui reputazione, dignità personale e diritto penale si intrecciano.
In Italia la linea è stata tracciata con chiarezza:
👉 quando l’AI viene usata per creare immagini sessualizzate realistiche di persone reali, senza consenso, il rischio penale è la regola, non l’eccezione.
Non è la fine della satira, ma è la fine dell’illusione che “è solo un meme” basti a mettere al riparo dalle conseguenze.
Commenti
Posta un commento