Zürcher Nachrichten - Avec l'IA, peut-on encore faire confiance à ses propres oreilles?

EUR -
AED 4.229988
AFN 73.146945
ALL 96.133079
AMD 434.212947
ANG 2.061819
AOA 1056.200947
ARS 1595.729488
AUD 1.676138
AWG 2.073241
AZN 1.95884
BAM 1.9575
BBD 2.319785
BDT 141.322745
BGN 1.968783
BHD 0.434815
BIF 3421.327021
BMD 1.1518
BND 1.483169
BOB 7.988181
BRL 6.046028
BSD 1.151795
BTN 109.176408
BWP 15.880861
BYN 3.428493
BYR 22575.287657
BZD 2.316392
CAD 1.600253
CDF 2628.988678
CHF 0.919315
CLF 0.02693
CLP 1063.36549
CNY 7.961072
CNH 7.958342
COP 4233.211976
CRC 534.857582
CUC 1.1518
CUP 30.52271
CVE 110.369005
CZK 24.518422
DJF 205.093682
DKK 7.472328
DOP 68.558058
DZD 153.334083
EGP 61.736268
ERN 17.277006
ETB 178.048178
FJD 2.580321
FKP 0.866974
GBP 0.867284
GEL 3.086771
GGP 0.866974
GHS 12.620455
GIP 0.866974
GMD 84.656271
GNF 10098.639609
GTQ 8.815384
GYD 241.106739
HKD 9.021621
HNL 30.579896
HRK 7.535884
HTG 150.976542
HUF 389.090264
IDR 19570.240438
ILS 3.616135
IMP 0.866974
INR 108.896278
IQD 1508.830137
IRR 1512601.862779
ISK 143.606561
JEP 0.866974
JMD 181.293527
JOD 0.816578
JPY 183.86078
KES 149.734428
KGS 100.724635
KHR 4612.886352
KMF 492.970864
KPW 1036.623761
KRW 1744.390407
KWD 0.354775
KYD 0.959846
KZT 556.830884
LAK 25050.648874
LBP 103140.830206
LKR 362.813545
LRD 211.358254
LSL 19.777978
LTL 3.400967
LVL 0.696713
LYD 7.352226
MAD 10.765177
MDL 20.230571
MGA 4800.106597
MKD 61.676346
MMK 2417.436221
MNT 4113.24352
MOP 9.293293
MRU 45.987343
MUR 54.017007
MVR 17.795778
MWK 1997.10857
MXN 20.796407
MYR 4.629663
MZN 73.657744
NAD 19.778236
NGN 1591.99517
NIO 42.386262
NOK 11.212362
NPR 174.665914
NZD 2.005595
OMR 0.442792
PAB 1.151815
PEN 4.012185
PGK 4.977258
PHP 69.977059
PKR 321.451413
PLN 4.279935
PYG 7530.377025
QAR 4.199475
RON 5.097752
RSD 117.405319
RUB 93.874992
RWF 1681.924321
SAR 4.322129
SBD 9.262822
SCR 17.163771
SDG 692.232263
SEK 10.889179
SGD 1.482949
SHP 0.864149
SLE 28.276608
SLL 24152.69076
SOS 658.257439
SRD 43.308822
STD 23839.942611
STN 24.520978
SVC 10.077884
SYP 127.305795
SZL 19.775833
THB 37.764652
TJS 11.005823
TMT 4.031301
TND 3.395971
TOP 2.773258
TRY 51.215473
TTD 7.825763
TWD 36.869937
TZS 2977.40446
UAH 50.484891
UGX 4290.85719
USD 1.1518
UYU 46.623733
UZS 14046.382845
VES 538.960062
VND 30332.663288
VUV 137.508177
WST 3.196803
XAF 656.512961
XAG 0.016275
XAU 0.000254
XCD 3.112798
XCG 2.07583
XDR 0.816616
XOF 656.512961
XPF 119.331742
YER 274.819021
ZAR 19.662788
ZMK 10367.582559
ZMW 21.681643
ZWL 370.879256
  • AEX

    -2.5100

    961.97

    -0.26%

  • BEL20

    7.5400

    5036.85

    +0.15%

  • PX1

    -10.8800

    7761.19

    -0.14%

  • ISEQ

    -2.3900

    11928.46

    -0.02%

  • OSEBX

    -3.4600

    2034.43

    -0.17%

  • PSI20

    2.7200

    9071.89

    +0.03%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    19.1200

    3626.66

    +0.53%

  • N150

    4.2000

    3824.19

    +0.11%

Avec l'IA, peut-on encore faire confiance à ses propres oreilles?
Avec l'IA, peut-on encore faire confiance à ses propres oreilles? / Photo: Chris Delmas - AFP

Avec l'IA, peut-on encore faire confiance à ses propres oreilles?

La voix de sa fille et ses sanglots l'ont bouleversée quand un homme l'a appelée pour lui demander une rançon. Mais les intonations étaient reproduites à la perfection par une intelligence artificielle (IA) pour une tentative d'arnaque, un sujet d'inquiétude qui émerge avec cette technologie en plein boom.

Taille du texte:

Le plus gros danger des IA, estiment les experts, est leur capacité à presque abolir la démarcation entre réel et fiction, fournissant aux criminels des outils efficaces et peu onéreux.

De nouvelles arnaques téléphoniques grâce aux outils de réplication de voix par IA -- aisément disponibles en ligne -- inquiètent les autorités américaines.

"Aide-moi, maman, je t'en supplie, aide-moi", entend au bout du fil Jennifer DeStefano, une mère installée dans l'Arizona.

Cette voix, elle est alors "100%" convaincue qu'il s'agit de celle, en grande détresse, de sa fille de 15 ans, partie faire du ski.

"C'était totalement sa voix, la façon dont elle aurait pleuré", a témoigné la mère à une chaîne de télévision locale en avril.

"Je n'ai pas douté un seul instant que ça puisse ne pas être elle."

Au bout du fil, l'arnaqueur qui prend ensuite la parole, depuis un numéro inconnu, exige un million de dollars.

La séquence, qui a rapidement pris fin lorsque Jennifer DeStefano est parvenue à joindre sa fille, fait désormais l'objet d'une enquête et a mis en lumière le potentiel dévoiement de l'IA par les cybercriminels.

- "Des deepfakes convaincants" -

"La réplication de voix par IA, désormais quasi impossible à distinguer de l'élocution humaine, permet aux personnes mal intentionnées comme les arnaqueurs de soutirer plus efficacement des informations et de l'argent aux victimes", explique à l'AFP Wasim Khaled, PDG de Blackbird.AI.

De nombreuses applications, dont beaucoup sont gratuites et disponibles en ligne, permettent de répliquer par l'intelligence artificielle la vraie voix d'une personne à partir d'un court enregistrement. Celui-ci peut aisément être extrait depuis des contenus postés en ligne.

"Avec un court échantillon audio, un clone de voix par IA peut être utilisé pour laisser des messages et des capsules audio. Il peut même être utilisé comme un modificateur de voix en direct lors d'appels", détaille Wasim Khaled.

"Les arnaqueurs emploient divers accents et genres, ou imitent même la façon de parler de vos proches", ajoute-t-il. Cette technologie "permet de créer des deepfakes convaincants".

Selon un sondage effectué auprès de 7.000 personnes dans neuf pays dont les Etats-Unis, une personne sur quatre a été la cible d'une tentative d'arnaque à la voix répliquée par IA, ou connait quelqu'un dans ce cas.

70% des sondés ont affirmé qu'ils n'étaient pas certains de pouvoir faire la différence entre une vraie voix et une voix clonée, selon cette enquête publiée le mois dernier par McAfee Labs.

Les autorités américaines ont récemment mis en garde contre la popularité croissante de l'"arnaque au grand-parent".

"Vous recevez un appel, une voix paniquée au bout du fil, c'est votre petit-fils. Il dit qu'il a de gros ennuis, il a eu un accident de voiture et s'est retrouvé en détention. Mais vous pouvez l'aider en envoyant de l'argent", a décrit en guise d'avertissement l'agence américaine de protection des consommateurs (FTC).

Dans les commentaires sous cette mise en garde de la FTC, plusieurs personnes âgées disaient avoir été trompées de la sorte.

- Vulnérabilité -

Un grand-père victime avait été si convaincu qu'il s'était mis à rassembler de l'argent, envisageant même de réhypothéquer sa maison, avant que la ruse ne soit éventée.

L'aisance avec laquelle on peut désormais répliquer artificiellement une voix fait que "presque toute personne présente en ligne est vulnérable", estime auprès de l'AFP Hany Farid, professeur à l'UC Berkeley School of Information.

"Ces arnaques gagnent du terrain", évalue-t-il.

Plus tôt cette année, la startup ElevenLabs a dû admettre qu'il était possible de faire un mauvais usage de son outil de réplication de voix par IA, après que des utilisateurs eurent posté en ligne un deepfake de l'actrice Emma Watson lisant "Mein Kampf".

"Nous approchons rapidement du moment où nous ne pourrons plus faire confiance aux contenus sur internet et où nous devrons faire appel à de nouvelles technologies pour s'assurer que la personne à qui l'on pense s'adresser (au téléphone) est réellement la personne à qui l'on parle", conclut Gal Tal-Hochberg, un responsable de l'entreprise d'investissements dans la tech Team8.

B.Brunner--NZN