13 Feb, 2025 - 20:50

Truffe Intelligenza artificiale: perché l'Italia rischia e cosa il Governo non sta facendo

Truffe Intelligenza artificiale: perché l'Italia rischia e cosa il Governo non sta facendo

 Le voci clonate con l’intelligenza artificiale, i deepfake e i furti di identità sono diventati la nuova frontiera delle truffe. L’avvento dei programmi di Ai - sempre più numerosi e accessibili - pone un serio problema di sicurezza davanti al quale occorre rispondere con strumenti legislativi adeguati.

Il 2 febbraio 2025 è entrato in vigore anche in Italia, il Regolamento Europeo sull’intelligenza artificiale (AI Act) che mira a regolamentare l’uso delle nuove tecnologie e a limitare i casi di utilizzo distorto dei sistemi di Ai.

Sul tema dell’intelligenza artificiale il legislatore italiano si è mosso con poca tempestività. Nel nostro Paese il Disegno di Legge sulla regolamentazione dell’utilizzo di questa nuova tecnologia è ancora fermo al palo, bloccato al Senato.

Senza una legislazione adeguata che preveda anche pene specifiche in caso di reati collegati all’utilizzo delle nuove tecnologie, il rischio di un proliferare incontrollato di raggiri e imbrogli ai danni di ignari cittadini, spesso persone vulnerabili, è molto alto.

Il caso del raggiro milionario ai danni di alcuni imprenditori italiani, messo a segno da una gang di truffatori che si sono spacciatisi per il Ministro della Difesa Guido Crosetto, ha acceso i riflettori sull'emergenza legata all'utilizzo fraudolento dell'intelligenza artificiale. 

Truffe con l'Ai: i numeri dell’emergenza deepfake

Le cronache di questi giorni evidenziano l’urgenza di un tempestivo intervento normativo sull'uso dell'Ai, in grado di colmare un vuoto entro il quale le organizzazioni criminali tendono a inserirsi in maniera sempre più frequente e sempre più agevole.

Sono, infatti, sempre più diffusi i programmi e i siti che consentono di clonare l'aspetto e le voci delle persone, o, di rubarne l’identità per poi utilizzarle per raggirare e truffare ignare vittime. Vittime che si accorgono dell'imbroglio solo quando ormai è troppo tardi. Non occorrono particolari capacità o conoscenze, basta solo disporre del programma giusto.

Nel 2023 i raggiri in cui i truffatori hanno utilizzato programmi di Ai per raggirare le loro vittime sono aumentati del 3000%, con un aumento di 31 volte dei tentativi di deepfake rispetto al 2022. Un’emergenza evidenziata nel Rapporto Onfido sulle frodi di identità 2024  e sulle minacce legate all’uso illegittimo dell’intelligenza artificiale. 

Calenda: "Denuncerò Facebook per un mio video fake"

I dati appena evidenziati sembrano confermare la necessità di intervenire in maniera tempestiva per arginare il fenomeno e fornire agli inquirenti le armi per contrastarlo in maniera efficace. 

Non solo il caso denunciato dal Ministro Guido Crosetto, ma anche quello che ha visto protagonista il leader di Azione Carlo Calenda che ha rivelato ai microfoni dell’inviato di Tag24.it Lorenzo Brancati l’esistenza di un falso video in cui lui consiglierebbe di investire in un fondo monetario.

virgolette
C’è un video che gira su Facebook in cui io suggerisco di investire dei soldi su un dato fondo. Sono truffe online, ci sono cadute delle persone. Io l’ho segnalato alla polizia postale e a Facebook ma continua ad essere visibile. Denuncerò Facebook perché non si può andare avanti così.”

Calenda evidenzia i rischi di questo fenomeno e la difficoltà di riconoscere i contenuti reali da quelli falsi, da qui la necessità di intervenire in maniera congiunta nelle sedi parlamentari.

virgolette
“Ci sono temi su cui bisogna lavorare insieme, perché la cosa è talmente più grande di questo teatrino che mettiamo in scena ogni giorno”.

Ha concluso il segretario di Azione.

Perché l'Italia è in emergenza e cosa non sta facendo il Parlamento

Il 2 febbraio 2025 è entrato in vigore il Regolamento europeo sull’intelligenza artificiale che naturalmente è stato recepito anche dall’Italia.  

Con l'entrata in vigore dei primi articoli dell'AI Act, l'Unione Europea ha introdotto misure concrete contro i possibili rischi dell'intelligenza artificiale vietando, ad esempio, l’utilizzo di sistemi IA per manipolare comportamenti, come il social scoring e la polizia predittiva, e l'uso di tecnologie invasive come il riconoscimento emotivo.

Contemporaneamente il Governo italiano si è impegnato a legiferare sulla materia. A oggi il Ddl sull’Ai è però fermo al Senato dopo l’approvazione in Consiglio dei Ministri.

Cosa lo blocca? Oltre ai quasi 400 emendamenti presentati, la discussione è rallentata anche dalle divergenze relative alla gestione degli organi di controllo, alle sanzioni per abusi e utilizzo improprio dei dati.

Il Decreto di Legge è composto da 25 articoli e al suo interno sono state previste diverse norme volte a contrastare i reati commessi con l’ausilio dell’Ai. Prevista, infine, anche un’aggravante per l’alterazione dei risultati riguardanti le competizioni elettorali.  

Le truffe corrono veloci: cosa stanno facendo i politici?

Gli ultimi giorni hanno riacceso i riflettori sulla necessità di accelerare l’iter di approvazione del Dl sull’Ai.

Ecco cosa ne pensano i parlamentari italiani:

virgolette
“Sappiamo che la tecnologia può essere un grande acceleratore di innovazione positiva, ma anche di truffe. In Italia stiamo lavorando su questi temi che sono complessi, perché la tecnologia corre molte veloce e la politica deve cercare di governare facendo buone leggi. È quello che stiamo cercando di fare con competenza e senza perdere tempo”.

Ha dichiarato il deputato di Forza Italia,  Alessandro Cattaneo, mentre per la senatrice del Partito Democratico, Simona Malpezzi, bisogna collaborare per arrivare a un accordo bipartisan.

virgolette
“Il tema dell’intelligenza artificiale ci deve interrogare tutti perché va molto più veloce di quanto possano essere le normative. Il Parlamento purtroppo è lento di fronte alla velocità con cui l’Ai continua a crescere. Le competenza ci sono per affrontare il tema in maniera bipartisan.”

Il senatore di Fratelli d’Italia Lucio Malan, invece ha dichiarato:

virgolette
“Queste truffe sono molto pericolose. Il ddl sull’Ai va avanti, ma le truffe già oggi sono contro la legge”

Parlamento lumaca e truffe Ai in cinque punti salienti:

  1. Le nuove truffe legate all'AI: L'intelligenza artificiale ha portato a nuove forme di truffa, come il furto d'identità e l'uso di deepfake che clonano voci e immagini per raggirare le vittime.
  2. Il regolamento europeo e la lentezza italiana: Il 2 febbraio 2025 è entrato in vigore il Regolamento Europeo sull’Intelligenza Artificiale (AI Act), ma l'Italia ha fatto pochi progressi nella creazione di leggi nazionali adeguate, con il disegno di legge bloccato al Senato.
  3. Aumento delle truffe con AI: I raggiri che utilizzano voci clonate sono aumentati del 3000% nel 2023, con un uso massiccio dei deepfake.
  4. Rischi per i cittadini e necessità di nuove leggi: La mancanza di leggi adeguate espone i cittadini a gravi rischi, come evidenziato dalle truffe ai danni di imprenditori italiani. È urgente un intervento normativo tempestivo.
  5. Lentezza della politica e del Parlamento: Nonostante il rischio crescente, il Parlamento italiano è lento nel reagire. Il disegno di legge sull'AI è fermo a causa di divergenze politiche, senza una data prevista per la discussione definitiva.
AUTORE
foto autore
Maria Rita Esposito
condividi sui social
condividi su facebook condividi su x condividi su linkedin condividi su whatsapp
ARTICOLI RECENTI
LEGGI ANCHE