Zürcher Nachrichten - Voce Clonata, Truffa e Pericoli

EUR -
AED 4.237807
AFN 72.697767
ALL 96.064347
AMD 435.561434
ANG 2.065628
AOA 1058.152067
ARS 1611.221976
AUD 1.624749
AWG 2.077071
AZN 1.949577
BAM 1.955569
BBD 2.317456
BDT 141.183313
BGN 1.972421
BHD 0.435579
BIF 3416.32219
BMD 1.153929
BND 1.470294
BOB 7.967076
BRL 5.991892
BSD 1.150629
BTN 106.255218
BWP 15.636678
BYN 3.451187
BYR 22617.000762
BZD 2.314056
CAD 1.580052
CDF 2613.648428
CHF 0.90572
CLF 0.026518
CLP 1047.086651
CNY 7.946933
CNH 7.943563
COP 4271.347526
CRC 539.319896
CUC 1.153929
CUP 30.579108
CVE 112.103849
CZK 24.436724
DJF 204.889568
DKK 7.47249
DOP 70.229569
DZD 152.429318
EGP 60.297397
ERN 17.308929
ETB 181.167229
FJD 2.548509
FKP 0.867557
GBP 0.864004
GEL 3.127009
GGP 0.867557
GHS 12.5605
GIP 0.867557
GMD 84.812672
GNF 10083.589698
GTQ 8.831444
GYD 241.21646
HKD 9.042876
HNL 30.659321
HRK 7.534351
HTG 150.928891
HUF 388.529805
IDR 19572.937088
ILS 3.576544
IMP 0.867557
INR 107.416676
IQD 1511.64648
IRR 1516262.193461
ISK 143.617514
JEP 0.867557
JMD 181.003116
JOD 0.818088
JPY 183.501164
KES 149.491232
KGS 100.91092
KHR 4617.334208
KMF 492.7277
KPW 1038.586413
KRW 1714.511206
KWD 0.353899
KYD 0.958853
KZT 554.405254
LAK 24691.332668
LBP 103211.950636
LKR 358.306782
LRD 210.558726
LSL 19.259252
LTL 3.407251
LVL 0.698
LYD 7.379338
MAD 10.805099
MDL 20.072019
MGA 4806.112939
MKD 61.644542
MMK 2423.426895
MNT 4124.715035
MOP 9.287321
MRU 46.27835
MUR 53.807791
MVR 17.828323
MWK 2004.374083
MXN 20.382539
MYR 4.529219
MZN 73.747646
NAD 19.259218
NGN 1561.127147
NIO 42.372517
NOK 11.055759
NPR 170.008749
NZD 1.970708
OMR 0.443645
PAB 1.152982
PEN 3.94355
PGK 4.962758
PHP 68.838751
PKR 322.234628
PLN 4.262439
PYG 7458.892152
QAR 4.204341
RON 5.092865
RSD 117.454953
RUB 95.049812
RWF 1683.581842
SAR 4.332489
SBD 9.283566
SCR 17.333951
SDG 693.510898
SEK 10.709503
SGD 1.473107
SHP 0.865745
SLE 28.364002
SLL 24197.318486
SOS 656.402506
SRD 43.416555
STD 23883.992461
STN 24.493178
SVC 10.067461
SYP 127.942867
SZL 19.259619
THB 37.3094
TJS 11.028605
TMT 4.050289
TND 3.383896
TOP 2.778383
TRY 50.995218
TTD 7.806807
TWD 36.797284
TZS 3010.288514
UAH 50.554091
UGX 4352.065813
USD 1.153929
UYU 46.867267
UZS 14005.806816
VES 516.738648
VND 30348.322451
VUV 137.995029
WST 3.178161
XAF 655.859587
XAG 0.014553
XAU 0.00023
XCD 3.11855
XCG 2.073683
XDR 0.815679
XOF 658.319048
XPF 119.331742
YER 275.269543
ZAR 19.26645
ZMK 10386.725812
ZMW 22.442667
ZWL 371.564542

Voce Clonata, Truffa e Pericoli




Negli ultimi anni i criminali hanno scoperto nell’intelligenza artificiale uno strumento potentissimo per rendere più credibili le frodi. Tra le truffe più insidiose c’è la clonazione vocale, un fenomeno che sfrutta software capaci di imitare alla perfezione la voce di una persona nota. Bastano pochi secondi di audio – una semplice risposta al telefono o un frammento di un video pubblicato sui social – e i truffatori possono sintetizzare un messaggio con toni, inflessioni ed emozioni identiche a quelli del soggetto imitato. L’obiettivo è indurre la vittima a compiere azioni impulsive: inviare denaro, condividere codici o fornire dati sensibili a un interlocutore che percepisce come familiare.

Come funziona la clonazione della voce
La clonazione vocale si basa su algoritmi di sintesi vocale e apprendimento automatico. Con pochi secondi di campione audio, il software scompone la voce analizzandone tono, ritmo, accento e respiro, quindi addestra un modello in grado di ricostruire e generare frasi inedite con la stessa impronta sonora. Alcuni strumenti sono così sofisticati da simulare il timbro emozionale della persona imitata. Esistono applicazioni a pagamento, ma ormai sono disponibili anche soluzioni gratuite o a basso costo, accessibili a chiunque sappia navigare in rete. Una giornalista statunitense ha dimostrato che con un audio di 30 secondi e un investimento di 5 dollari è possibile registrare una voce clonata in meno di quattro minuti.

Il processo di frode inizia spesso con chiamate mute: i truffatori telefonano senza parlare per raccogliere un semplice «pronto?» che servirà per addestrare l’algoritmo. Una volta ottenuta la clip audio, preparano uno script convincente – un incidente stradale, un arresto o una rapina – e fanno partire la chiamata con un numero falsificato (spoofing) che appare come quello di un familiare, di un avvocato o della banca. La vittima sente la voce del figlio o del nipote che chiede aiuto urgente e, travolta dall’emozione, segue le istruzioni: consegna contanti, comunica una password temporanea (OTP) o installa software di accesso remoto. In alcuni casi i criminali organizzano la raccolta del denaro tramite corrieri che ritirano pacchi o buste a domicilio.

Esempi e casi reali
Le cronache recenti mostrano che la truffa della voce clonata non è più teoria. Nel luglio 2025 una donna della Florida ha ricevuto una chiamata da chi credeva fosse la figlia incinta. La voce piangente raccontava di un incidente, della perdita del bambino e della necessità di soldi per pagare un avvocato. La madre, in preda al panico, ha consegnato 15 000 dollari a un corriere prima di accorgersi che la figlia era a casa sana e salva. Nel Regno Unito un’azienda energetica ha perso 220 000 euro perché un impiegato ha eseguito un bonifico su richiesta di una voce che imitava quella del direttore generale. Nel 2024 un’ingegneria internazionale ha subìto una frode da 25 milioni di dollari, ingannata da un videochiamata con un dirigente apparentemente reale. Un rapporto dell’Unione Europea indica che una società di Hong Kong ha perso oltre 25 milioni di dollari in un colpo orchestrato con voci e video deepfake.

Non sono solo le imprese a essere colpite. In Arizona una madre ha ricevuto una telefonata con la voce della figlia quindicenne, che implorava aiuto per un rapimento. Mentre la donna parlava con i presunti rapitori, il marito ha contattato la ragazza che era tranquillamente all’allenamento, svelando la truffa. In Italia le forze dell’ordine segnalano un aumento di casi: famiglie anziane ricevono telefonate con voci clonate di figli o nipoti che chiedono denaro per emergenze; per difendersi molte adottano il “codice di famiglia”, una parola segreta da pronunciare in caso di chiamate sospette. Un comandante dei Carabinieri ha precisato che questa tecnica può aiutare ma non sostituisce la prudenza: spesso le vittime condividono inconsapevolmente dettagli personali che rendono più facile l’inganno.

Perché è pericolosa
La clonazione della voce è estremamente pericolosa perché sfrutta un mezzo che istintivamente ispira fiducia: la voce è un dato biometrico legato all’identità e alle emozioni. Quando si sente il timbro di un parente in pericolo, si abbassano le difese razionali e si agisce d’impulso. I truffatori giocano sull’urgenza (“paga subito o andrò in prigione”) e sulla segretezza (“non avvisare nessuno”), elementi che spingono la vittima a seguire le istruzioni senza verifiche. Questo schema funziona anche con i dipendenti aziendali, che non vogliono disattendere gli ordini del capo e autorizzano bonifici ingenti.

Il problema è amplificato dalla diffusione dei dati vocali. Secondo una ricerca internazionale, il 53 % delle persone condivide la propria voce online almeno una volta a settimana, fornendo materiale prezioso per i truffatori. Un’indagine condotta su 7 000 utenti ha rivelato che un adulto su quattro ha subìto o conosce qualcuno colpito da una truffa vocale, e il 70 % degli intervistati non si sente in grado di distinguere una voce clonata da quella reale. Tra chi ha perso denaro, il 36 % ha registrato danni tra 500 e 3 000 dollari, mentre il 7 % ha perso fino a 15 000 dollari. Un rapporto europeo indica che nel 2024 il numero di attacchi deepfake è aumentato del 3000 %, con un attacco rilevato ogni cinque minuti e il 49 % delle aziende intervistate colpite da frodi audio.

Risposte istituzionali
La crescita esponenziale di queste frodi ha spinto istituzioni e autorità a muoversi. Negli Stati Uniti la Commissione federale per il commercio (FTC) ha lanciato una Voice Cloning Challenge per sviluppare soluzioni capaci di distinguere voci umane da cloni, rilevare in tempo reale le manipolazioni e inserire watermark inaudibili che impediscano la clonazione. Sono state premiate tecnologie che attribuiscono un “punteggio di autenticità” alle chiamate e sistemi di autenticazione vocale che includono marcature digitali. A livello europeo, il Parlamento chiede una legislazione contro i deepfake che includa obblighi di trasparenza e consenta ai fornitori di contrassegnare contenuti generati dall’AI. In Italia polizia postale e carabinieri promuovono campagne informative e corsi di educazione digitale, mentre le banche rafforzano il monitoraggio comportamentale delle transazioni sospette. Alcune proposte includono l’introduzione di codici d’emergenza per le chiamate e la possibilità di bloccare in tempo reale i bonifici quando si sospettano frodi.

Come proteggersi
Nonostante i progressi tecnologici, la difesa più efficace resta l’attenzione umana. Gli esperti suggeriscono:

- Verificare l’identità su un canale diverso: se si riceve una richiesta urgente di denaro, chiudere la chiamata e richiamare il familiare o l’azienda usando un numero noto. Non fidarsi del numero sul display, perché può essere falsificato.

- Stabilire una parola di sicurezza condivisa in famiglia. Servirà a confermare l’identità di chi chiama.

- Porre domande personali che solo la persona reale può conoscere, come un dettaglio recente o un ricordo comune.

- Controllare l’impronta vocale: limitare la pubblicazione di audio e video sui social, mantenere profili privati e non rispondere a chiamate sospette con il proprio nome.

- Mai condividere OTP, password o credenziali per telefono, neppure se la voce sembra quella di un parente o di un impiegato della banca.

- Segnalare le chiamate sospette alle autorità competenti e alla propria banca. In caso di frode, bloccare immediatamente carte e account, conservare le prove (numeri, registrazioni) e sporgere denuncia.

Conclusione
La clonazione vocale è una delle forme più inquietanti di frode digitale perché sfrutta l’intelligenza artificiale per imitare le persone a noi più care. Con pochi secondi di audio, i criminali generano messaggi realistici e sfruttano la nostra emotività per estorcere denaro o informazioni. Le vittime, tanto nelle famiglie quanto nelle aziende, si moltiplicano e le perdite si misurano in milioni. La soluzione non può essere solo tecnologica: serve una maggiore alfabetizzazione digitale, un atteggiamento prudente e protocolli di verifica condivisi. Conoscere il funzionamento di queste truffe e riconoscere i segnali d’allarme è il primo passo per non cadere nella rete dell’inganno.