Zürcher Nachrichten - "Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

EUR -
AED 4.30878
AFN 75.088139
ALL 95.561304
AMD 435.019119
ANG 2.099991
AOA 1077.048119
ARS 1633.743618
AUD 1.628028
AWG 2.111859
AZN 1.992549
BAM 1.958981
BBD 2.363569
BDT 143.987894
BGN 1.957109
BHD 0.443079
BIF 3491.606608
BMD 1.173255
BND 1.496952
BOB 8.108753
BRL 5.813124
BSD 1.17352
BTN 111.32055
BWP 15.948049
BYN 3.311545
BYR 22995.796207
BZD 2.360153
CAD 1.594747
CDF 2721.951785
CHF 0.916036
CLF 0.026822
CLP 1055.636074
CNY 8.011278
CNH 7.99944
COP 4290.886514
CRC 533.520798
CUC 1.173255
CUP 31.091255
CVE 110.814062
CZK 24.36217
DJF 208.511097
DKK 7.472484
DOP 69.807476
DZD 155.414871
EGP 62.775014
ERN 17.598824
ETB 184.201363
FJD 2.570129
FKP 0.864241
GBP 0.863158
GEL 3.144316
GGP 0.864241
GHS 13.136436
GIP 0.864241
GMD 85.647414
GNF 10295.311947
GTQ 8.965435
GYD 245.506393
HKD 9.191291
HNL 31.231437
HRK 7.535932
HTG 153.725313
HUF 362.003077
IDR 20384.717408
ILS 3.45811
IMP 0.864241
INR 111.373802
IQD 1536.96393
IRR 1541656.949892
ISK 143.805466
JEP 0.864241
JMD 183.878547
JOD 0.831868
JPY 183.999313
KES 151.525537
KGS 102.56653
KHR 4707.687454
KMF 492.766707
KPW 1055.929389
KRW 1723.388282
KWD 0.361246
KYD 0.977959
KZT 543.555065
LAK 25788.142975
LBP 105064.976893
LKR 375.055706
LRD 215.732235
LSL 19.546108
LTL 3.464316
LVL 0.70969
LYD 7.450082
MAD 10.854074
MDL 20.219293
MGA 4869.007439
MKD 61.642351
MMK 2463.237101
MNT 4197.730703
MOP 9.46916
MRU 46.895281
MUR 54.861245
MVR 18.132674
MWK 2043.224376
MXN 20.452648
MYR 4.637894
MZN 74.955906
NAD 19.546663
NGN 1614.37562
NIO 43.070165
NOK 10.884579
NPR 178.104316
NZD 1.982771
OMR 0.451104
PAB 1.17349
PEN 4.11519
PGK 5.09046
PHP 72.119932
PKR 327.074167
PLN 4.246878
PYG 7217.425722
QAR 4.274757
RON 5.197052
RSD 117.321989
RUB 87.993368
RWF 1714.712049
SAR 4.399682
SBD 9.435445
SCR 17.459933
SDG 704.550818
SEK 10.811603
SGD 1.493199
SHP 0.875953
SLE 28.864339
SLL 24602.564306
SOS 669.928799
SRD 43.947762
STD 24284.007814
STN 24.884737
SVC 10.268679
SYP 129.673977
SZL 19.545913
THB 38.048375
TJS 11.007269
TMT 4.112258
TND 3.381027
TOP 2.824916
TRY 53.025844
TTD 7.96568
TWD 37.070747
TZS 3062.195542
UAH 51.563774
UGX 4412.59685
USD 1.173255
UYU 46.800573
UZS 14020.396174
VES 573.654487
VND 30901.774408
VUV 138.035069
WST 3.185609
XAF 657.071431
XAG 0.015654
XAU 0.000256
XCD 3.17078
XCG 2.114968
XDR 0.816151
XOF 657.022504
XPF 119.331742
YER 279.952314
ZAR 19.463185
ZMK 10560.703776
ZMW 21.915169
ZWL 377.787602
  • AEX

    1.5200

    1015.66

    +0.15%

  • BEL20

    35.8600

    5388.42

    +0.67%

  • PX1

    -25.1600

    8090.05

    -0.31%

  • ISEQ

    167.7500

    12593.36

    +1.35%

  • OSEBX

    6.0600

    2024.61

    +0.3%

  • PSI20

    -42.0500

    9303.27

    -0.45%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    71.6400

    3902.45

    +1.87%

  • N150

    22.4400

    4177.13

    +0.54%

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA
"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA / Photo: Stefani REYNOLDS - AFP/Archives

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

Ellis, adolescente texane de 14 ans, s'est réveillée un matin d'octobre avec plusieurs appels manqués et messages affolés sur son téléphone. De fausses photographies d'elle, dénudée, circulaient sur les réseaux sociaux.

Taille du texte:

"C'étaient des photos d'une de mes meilleures amies et de moi tirées d'Instagram. Des corps nus avaient été édités dessus", raconte la collégienne à l'AFP.

"Je me souviens avoir eu très très peur car ces faux nus étaient en train d'être envoyés autour de moi. Et je n'ai jamais rien fait de tel".

Comme plusieurs camarades de son collège de la périphérie de Dallas, au Texas, la jeune fille a été victime de montages hyperréalistes (deepfakes) à caractère sexuel, fabriqués sans leur consentement par un élève puis partagés sur le réseau Snapchat.

Avec la popularisation de l'intelligence artificielle (IA), il est devenu plus facile de fabriquer ces montages photo ou vidéo et de les rendre hyperréalistes, ouvrant la voie à leur utilisation à des fins de harcèlement ou d'humiliation.

"Les filles ne faisaient que pleurer, et pleurer à ne plus en finir, elles avaient honte", se souvient Anna Berry McAdams, mise au courant immédiatement par sa fille Ellis.

"Elle me disait: +Maman, on dirait moi+, et je lui répondais +mais non ma chérie, j'étais avec toi quand la photo a été prise et je sais que ce n'est pas le cas+", poursuit la quinquagénaire, qui se dit "horrifiée" par le réalisme des clichés.

- Quelques dollars -

Fin octobre, d'autres "deepfakes" à caractère sexuel ont été découverts dans un lycée du New Jersey, au nord-est des Etats-Unis. Une enquête a été ouverte pour identifier toutes les victimes et le ou les auteurs.

"Nous commençons à voir de plus en plus de cas émerger (...) mais en matière d'abus sexuels, de +revenge porn+ (divulgation malveillante d'images intimes) ou de +deepfakes pornographiques+, beaucoup de personnes ne se manifestent pas et souffrent en silence parce qu'elles ont peur de rendre l'affaire publique", expose Renée Cummings, criminologue et chercheuse en intelligence artificielle.

S'il est impossible d'évaluer l'ampleur du phénomène, "n'importe qui ayant un smartphone et quelques dollars peut maintenant fabriquer un +deepfake+", précise cette professeure de l'Université de Virginie.

Et ce, grâce aux récents progrès et à la démocratisation de l'IA générative, capable de produire textes, lignes de code, images et sons sur simple requête en langage courant.

De fait, les montages hyperréalistes, qui touchaient auparavant à l'image des célébrités "ayant des tas et des tas de photos et de vidéos d'eux en ligne" concernent à présent tout un chacun, explique Hany Farid, professeur à l'Université de Californie à Berkeley.

"Si vous avez un profil LinkedIn avec une photo de votre tête, quelqu'un peut créer une image sexuelle de vous", poursuit ce spécialiste en détection d'images manipulées numériquement, notant que ces montages "visent principalement les femmes et les jeunes filles".

- "Traumatisme bien réel"-

Face à cette menace grandissante, les systèmes scolaires et judiciaires apparaissent dépassés.

"Bien que votre visage ait été superposé à un corps, ce corps n'est pas vraiment le vôtre, donc ce n'est pas comme si quelqu'un avait partagé un nu de vous" aux yeux de la loi, explique Mme Cummings.

Aux Etats-Unis, aucune loi fédérale ne punit la fabrication et la transmission de fausses images à caractère sexuel, et seule une poignée d'Etats dispose de législations spécifiques.

Fin octobre, Joe Biden a exhorté les législateurs à instaurer des garde-fous, afin d'empêcher notamment "l'IA générative de produire des contenus pédocriminels ou des images intimes non consenties de personnes réelles".

Si la responsabilité des créateurs de ces images -aujourd'hui difficilement identifiables- est centrale, celle des entreprises derrière les sites ou logiciels utilisés, et des réseaux sociaux, vecteurs des contenus, doit aussi être posée, insiste M. Farid.

Car si ces images sont fausses, "le traumatisme est lui bien réel", abonde Renée Cummings, décrivant des personnes "souffrant d'anxiété, de crises de panique, de dépression ou encore de syndromes post-traumatiques après avoir été victimes de +deepfakes pornographiques". "Cela peut détruire une vie".

La texane Ellis, qui se décrit comme une adolescente "sociable" et sportive, raconte avoir à présent "constamment peur", bien que l'élève à l'origine des "deepfakes" ait été identifié et exclu temporairement du collège.

"Je ne sais pas combien de photos il a pu faire ni combien de personnes ont pu les recevoir", explique-t-elle, disant avoir demandé à changer d'établissement scolaire.

Face à cette inconnue, sa mère se mobilise pour faire reconnaître ces images comme de la "pornographie infantile" et les voir punir comme telles.

"Cela pourrait les affecter toute leur vie. Cela ne va jamais sortir d'internet. Donc quand elles vont postuler à l'université par exemple, qui sait si (ces images) ne vont pas resurgir?", s'inquiète Anna Berry McAdams.

W.F.Portman--NZN