(di Titti Santamato) E’ allarme foto e video manipolate con l’intelligenza artificiale, i cosiddetti deepfake che nel mirino hanno la politica, la pornografia e la criminalità informatica. Una piaga nell’era delle post verità che viaggia sui social media e colpisce massicciamente gli Stati Uniti, il Paese del boom dell’IA e dove lo stesso Donald Trump posta fotogrammi alterati. Il 46% delle minacce a livello mondiale con l’utilizzo di deepfake avviene mediante video manipolati. Quasi uno su quattro, il 24,6%, ha avuto finalità di manipolazione politica, mentre uno su cinque, il 20,1%, mira alla frode. La pornografia riguarda l’11,3% delle manipolazioni – su questo fronte, dopo una funzione lanciata e poi cancellata da X, hanno acceso un faro diversi Paesi nel mondo – mentre l’abuso di celebrità e la satira registrano rispettivamente il 9,3% e il 3,2% di esse, “a conferma di quanto questi strumenti siano indirizzati prevalentemente alla sovversione o alterazione politica e alla monetizzazione”.
A tracciare il quadro è il primo ‘Deepfake Intelligence Report’ di IdentifAI, startup tecnologica italiana che scova foto e video generati dall’intelligenza artificiale, su un arco temporale compreso tra il 2020 e i primi mesi del 2026 che ha riguardato l’ambiente digitale mondiale. Il rapporto rileva che i media sintetici sono stati utilizzati come armi per manipolare le narrazioni geopolitiche prendendo di mira obiettivi politici di alto profilo tra cui un leader politico israeliano (5,4%), una figura politica statunitense di spicco (3,1%) e una serie di entità statali mediorientali (1,4%). Il Paese più colpito sono gli Stati Uniti con il 46,9% degli incidenti globali, il Regno Unito è secondo con l’8,2%, seguito da India (7,2%) e Israele (6,6%). Altre regioni degne di nota includono Iran (2,9%), Corea del Sud (2,1%) e Australia (1,8%).
“La sofisticazione tecnica delle operazioni dei media sintetici è maturata passando dalla capacità di ingannare gli esseri umani alla manipolazione algoritmica progettata per superare soglie di verifica avanzate”, spiega il rapporto. I metodi più comuni di attacchi deepfake sono video (45,6%), media misti (25,2%), immagini (17,4%) e clonazione vocale (10,5%). L’analisi avverte che la sofisticazione delle tecniche multimodali, compreso il bypass biometrico, aumenterà nei prossimi 12 mesi.
I social media fungono da principale motore di distribuzione dei deepfake: X rappresenta il 51,2% della propagazione degli incidenti “guidata dall’amplificazione algoritmica che dà priorità al coinvolgimento rispetto all’autenticazione della fonte”. TikTok è la seconda piattaforma più utilizzata con il 21,1%. YouTube e Facebook rappresentano rispettivamente il 10,0% e l’8,2% della distribuzione, seguiti da Instagram (5,0%), Telegram (1,4%) e WhatsApp (1,1%).
“I nostri risultati confermano che i deepfake e altri media sintetici sono ormai strumenti standardizzati per l’estorsione e la disinformazione su larga scala – afferma Marco Ramilli, Ceo e co-fondatore di IdentifAI -. Mentre gli autori delle minacce si spostano verso la generazione in tempo reale e l’implementazione automatizzata, la finestra per l’intervento umano sta crollando. La resilienza istituzionale non dipende più dalla moderazione reattiva, ma dall’integrazione di un rilevamento multimodale matematicamente rigoroso a livello architetturale per sostenere la verità e difendere l’integrità dei nostri dati”.
Riproduzione riservata © Copyright ANSA








