
Sora 2 e i video dei defunti (mistergadget.tech)
La nuova IA video di OpenAI, Sora 2, genera clip iperrealistiche di celebrità scomparse, sollevando dubbi su consenso, etica e manipolazione digitale.
Il lancio di Sora 2, la nuova tecnologia di OpenAI capace di generare video iperrealistici da semplici comandi testuali, ha già scatenato un terremoto etico e mediatico. In rete stanno circolando migliaia di clip che mostrano celebrità scomparse riportate in vita digitalmente, con risultati talmente convincenti da sfiorare l’inquietante.
Su TikTok, Instagram e YouTube si moltiplicano i video che “resuscitano” personaggi come Stephen Hawking trasformato in atleta, Gandhi alla guida di una Toyota Supra o Michael Jackson streamer su Twitch. Il caso più discusso è quello di John F. Kennedy che, in un video in bianco e nero perfettamente ricreato, parla di intelligenza artificiale e sconti del Black Friday: un esempio di come l’iperrealismo di Sora 2 renda ormai indistinguibile la realtà dalla finzione.
Sora 2: il confine del consenso e il nodo etico
Dietro il clamore tecnologico si nasconde una questione profonda: il diritto all’immagine dei defunti.
Le policy di OpenAI vietano esplicitamente l’uso di Sora per generare contenuti basati su persone reali senza consenso, ma nel momento in cui la tecnologia diventa pubblica, il controllo sfugge di mano.
E il problema non è solo legale, ma anche morale.
Come ha dichiarato Zelda Williams, figlia di Robin Williams, “questi video sono disgustosi hot dog industriali spinti in gola alla gente sperando che ti diano un piccolo pollice in su”. Le sue parole riflettono un sentimento diffuso: quello di trovarsi davanti a una spettacolarizzazione del lutto, a una manipolazione dell’immagine umana che riduce la memoria a intrattenimento virale.
La sottile linea tra innovazione e abuso
OpenAI, con Sora 2, ha compiuto un passo impressionante in termini tecnici: animazioni fotorealistiche, movimenti naturali, luci e ombre fedeli al contesto. Ma la precisione con cui l’AI può replicare espressioni, posture e perfino imperfezioni di un volto apre scenari difficilmente gestibili.
Molti utenti usano questi strumenti per scopi “creativi” o sperimentali, ma la facilità con cui si possono creare video falsi di persone reali — vive o morte — rischia di travolgere ogni barriera etica.
E non è solo questione di celebrità: pensiamo al potenziale impatto emotivo di un video in cui un caro defunto parla o sorride, senza alcun consenso né contesto.
L’ironia del paradosso
Persino Sam Altman, CEO di OpenAI, è finito nel mirino: sono comparsi video che lo ritraggono in scenari surreali o parodistici, generati con Sora 2 da utenti (forse anche interni all’azienda).
Un paradosso che mostra quanto la stessa tecnologia, creata per ampliare la creatività, possa diventare incontrollabile.
La capacità di generare immagini e video indistinguibili dal reale — il sogno di Hollywood e degli artisti digitali — rischia di trasformarsi in un incubo di deepfake senza limiti.
Verso una regolamentazione inevitabile
L’esplosione di Sora 2 rende urgente una riflessione globale su etica, consenso e proprietà dell’immagine digitale. Non basta più vietare: servono strumenti di riconoscimento e tracciabilità dei contenuti generati da AI, oltre a leggi internazionali che ne regolino l’uso.
Finché non si interverrà, Internet resterà una terra di nessuno, dove la linea che separa la memoria dall’intrattenimento continuerà a sfumare pericolosamente.
E come spesso accade con le rivoluzioni tecnologiche, le cause legali arriveranno solo dopo che i danni saranno già stati fatti.