L'era dell'informazione digitale si trova di fronte alla sua più grande sfida: i deepfake, definiti come output derivanti dall'utilizzo di tecniche di intelligenza artificiale atto a generare audio e video sintetici ma estremamente realistici, soprattutto per quanto riguarda le somiglianze facciali e vocali umane. L'evoluzione dell'intelligenza artificiale ha offerto un importante contributo alla disinformazione online mediante il fenomeno del deepfake, creando una realtà in cui distinguere il vero dal falso diventa sempre più complesso. Il 71% degli italiani è consapevole del fenomeno ma pochi sanno come riconoscerlo, evidenziando un gap critico tra consapevolezza e capacità di difesa.
L'uso dell'intelligenza artificiale nell'ultimo anno avrebbe fatto aumentare del 130% la disinformazione e le fake news che circolano in rete, mentre le frodi con deepfake vocali sono aumentate del 680% l'anno scorso e potrebbero crescere del 162% nel 2025. A Washington, vedere e sentire non significa più essere sicuri al 100% dell'identità dell'interlocutore, con l'elementare possibilità di realizzare deepfakes che sta sconvolgendo tutti i livelli delle misure di controllo e di sicurezza. Il video manipolato su Matteo Renzi è solo l'ultimo caso di una pericolosa tendenza che dimostra come l'informazione digitale venga sempre più manipolata, creando un problema pressante che va combattuto con la tecnologia, la legge e la cultura.
La risposta tecnologica ai deepfake si sta intensificando rapidamente. Gli strumenti di detection utilizzano tecnologie all'avanguardia come machine learning, computer vision e analisi biometrica per rilevare alterazioni nei media digitali, mentre gli algoritmi di deep learning, specificamente le CNN, che si ispirano alla corteccia visiva del cervello umano, si sono dimostrati efficaci nel rilevare immagini e video deepfake. Il nuovo sistema UNITE, sviluppato dai ricercatori UC Riverside in collaborazione con Google, può rilevare deepfake anche quando i volti non sono visibili, andando oltre i metodi tradizionali analizzando sfondi, movimento e indizi sottili. Molti deepfake sono stati rilevati ed esposti relativamente rapidamente, spesso da giornalisti attenti o fact-checker, e in diversi casi il contraccolpo contro l'uso dei deepfake ha generato stampa negativa per i responsabili.
L'approccio normativo sta evolvendo per fronteggiare questa minaccia. Per i sistemi AI che generano o manipolano immagini, audio, video per creare "deep fake", viene imposto ai fornitori di rendere nota la natura artificiale di tali contenuti, mentre la California ha deciso di limitare l'uso dei deepfake legati alle elezioni. Tuttavia, la tendenza è chiara: tali falsità sintetiche stanno diventando più frequenti e più difficili da distinguere immediatamente dalla realtà. Il futuro dell'informazione online dipenderà dalla nostra capacità di sviluppare non solo tecnologie di detection sempre più sofisticate, ma anche di educare il pubblico a riconoscere e combattere la disinformazione, creando un ecosistema informativo più resiliente dove trasparenza e vigilanza possano attenuare i danni dei contenuti manipolati.
A cura di Federica De Carolis