Quante volte è capitato di guardare un video divertente o scioccante e scoprire solo dopo che non era reale?Succede sempre più spesso, ed è normale sentirsi un po’ spaesati. Oggi distinguere un contenuto autentico da uno creato con l’intelligenza artificiale è diventato difficile ,perché anche i video falsi sono sempre più credibili. A volte solo piccoli dettagli tradiscono la loro origine. Questo cambia del tutto il nostro rapporto con le immagini online.
Articolo Il termine deepfake nasce nel 2017 su Reddit, quando un utente ha iniziato a pubblicare video manipolati con volti di celebrità sovrapposti ad altri corpi. Oggi non si tratta più solo di esperimenti: i deepfake fanno parte della comunicazione digitale di tutti i giorni . Possono essere usati per divertimento, ma anche per disinformazione.
Molti deepfake vengono creati tramite sistemi chiamati GAN, cioè reti neurali capaci di generare immagini realistiche dopo aver “imparato” dai dati. Altri strumenti usano encoder automatici che permettono di sostituire un volto con un altro mantenendo movimenti ed espressioni. In parole povere , il software analizza il volto reale e lo ricostruisce in modo artificiale. Il risultato può sembrare naturale in modo sorprendente.
Uno dei segnali più comuni riguarda gli occhi. Nei deepfake spesso lo sguardo non segue in modo naturale l’interlocutore oppure manca il battito delle palpebre. Sono dettagli piccoli ma importanti.. da osservare con attenzione! Anche le espressioni facciali possono sembrare leggermente rigide o incoerenti. A volte il viso può cambiare forma in modo innaturale durante il movimento. Questo succede perché a volte l’IA lavora di più sui volti e meno sul resto del corpo.
Altri segnali utili sono l’illuminazione strana o la sincronizzazione imperfetta tra labbra e voce. Anche le ombre sono elementi da tenere d’occhio perché a volte non combaciano. Anche movimenti troppo fluidi o troppo rigidi possono essere sospetti. Non tutti i video falsi sono deepfake complessi. Esistono anche gli shallowfake, cioè contenuti modificati con strumenti più semplici oppure tolti dal loro contesto. Anche senza tecnologie avanzate, questi contenuti possono influenzare l’opinione pubblica.
Negli ultimi anni diversi deepfake hanno coinvolto personaggi famosi come Scarlett Johansson oppure video manipolati con Donald Trump e Barack Obama. Anche in Italia alcuni esperimenti televisivi hanno mostrato quanto sia facile ingannare il pubblico. Il problema non riguarda più solamente le celebrità ma anche persone comuni.
In passato creare deepfake richiedeva computer molto potenti e competenze tecniche avanzate. Oggi invece esistono app semplici che permettono di editare volti e video in pochi minuti. Questo rende la tecnologia più accessibile ma anche più rischiosa: chiunque può produrre contenuti realistici senza essere un esperto.
L’Unione europea ha approvato nel 2024 l’AI Act, una normativa pensata per regolamentare l’uso dell’intelligenza artificiale. Anche l’Italia ha introdotto nel 2025 una legge specifica sull’AI. L’obiettivo è proteggere cittadini e informazione, senza bloccare però l’innovazione tecnologica. È un primo passo importante verso un uso più responsabile.
Oggi la sfida reale è imparare a guardare i contenuti online con più attenzione. Non significa smettere di fidarsi delle immagini, ma sviluppare uno sguardo critico. I deepfake fanno ormai parte della comunicazione digitale e continueranno a crescere, per questo saperli riconoscere deve essere un imperativo.
A cura di Aurora Cicco