Zürcher Nachrichten - En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

EUR -
AED 4.276798
AFN 76.973093
ALL 96.541337
AMD 443.660189
ANG 2.0846
AOA 1067.888653
ARS 1669.958677
AUD 1.752514
AWG 2.096182
AZN 1.984351
BAM 1.955625
BBD 2.34549
BDT 142.477215
BGN 1.956439
BHD 0.438161
BIF 3440.791247
BMD 1.164546
BND 1.508565
BOB 8.047278
BRL 6.334667
BSD 1.164496
BTN 104.702605
BWP 15.471612
BYN 3.348
BYR 22825.091832
BZD 2.34209
CAD 1.610159
CDF 2599.265981
CHF 0.936209
CLF 0.027366
CLP 1073.571668
CNY 8.233458
CNH 8.232219
COP 4424.302993
CRC 568.848955
CUC 1.164546
CUP 30.860456
CVE 110.255106
CZK 24.203336
DJF 207.371392
DKK 7.470448
DOP 74.533312
DZD 151.068444
EGP 55.295038
ERN 17.468183
ETB 180.629892
FJD 2.632397
FKP 0.873977
GBP 0.872678
GEL 3.138497
GGP 0.873977
GHS 13.246811
GIP 0.873977
GMD 85.012236
GNF 10119.091982
GTQ 8.9202
GYD 243.638138
HKD 9.065875
HNL 30.671248
HRK 7.535429
HTG 152.446321
HUF 381.994667
IDR 19435.740377
ILS 3.768132
IMP 0.873977
INR 104.760771
IQD 1525.563106
IRR 49041.926882
ISK 149.038983
JEP 0.873977
JMD 186.393274
JOD 0.825709
JPY 180.924237
KES 150.636483
KGS 101.839952
KHR 4662.581612
KMF 491.43861
KPW 1048.137083
KRW 1716.311573
KWD 0.357481
KYD 0.970513
KZT 588.927154
LAK 25252.733992
LBP 104283.942272
LKR 359.197768
LRD 204.961608
LSL 19.736529
LTL 3.438601
LVL 0.704422
LYD 6.330432
MAD 10.755735
MDL 19.814222
MGA 5194.533878
MKD 61.634469
MMK 2445.172268
MNT 4132.506664
MOP 9.338362
MRU 46.438833
MUR 53.651052
MVR 17.938355
MWK 2019.3188
MXN 21.165153
MYR 4.787492
MZN 74.426542
NAD 19.736529
NGN 1688.68458
NIO 42.856154
NOK 11.767853
NPR 167.523968
NZD 2.015483
OMR 0.44694
PAB 1.164595
PEN 3.914449
PGK 4.941557
PHP 68.66747
PKR 326.476804
PLN 4.229804
PYG 8009.281302
QAR 4.244719
RON 5.092096
RSD 117.389466
RUB 89.441974
RWF 1694.347961
SAR 4.370508
SBD 9.584899
SCR 15.747587
SDG 700.4784
SEK 10.946786
SGD 1.508673
SHP 0.873711
SLE 27.603998
SLL 24419.93473
SOS 664.340387
SRD 44.985272
STD 24103.740676
STN 24.497802
SVC 10.190086
SYP 12876.900539
SZL 19.72123
THB 37.119932
TJS 10.684641
TMT 4.087555
TND 3.416093
TOP 2.803946
TRY 49.523506
TTD 7.894292
TWD 36.437508
TZS 2841.64501
UAH 48.888813
UGX 4119.630333
USD 1.164546
UYU 45.545913
UZS 13931.74986
VES 296.437311
VND 30697.419423
VUV 142.156724
WST 3.247609
XAF 655.898144
XAG 0.019964
XAU 0.000277
XCD 3.147243
XCG 2.098812
XDR 0.815727
XOF 655.898144
XPF 119.331742
YER 277.802752
ZAR 19.711451
ZMK 10482.311144
ZMW 26.923584
ZWL 374.983176
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa / Foto: Stefani REYNOLDS - AFP

En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

Aplicaciones fotográficas que desnudan digitalmente a las mujeres, la posibilidad de crear desde una simple frase fotos de "chicas de inteligencia artificial (IA)" e imágenes manipuladas que alimentan la "extorsión sexual": el auge de la pornografía ultrafalsa está superando esfuerzos de EEUU y Europa para regular la tecnología.

Tamaño del texto:

Las falsificaciones de fotos y videos cada vez más realistas basadas en IA -llamadas "deepfakes"- generalmente se asocian a personalidades conocidas, como el papa Francisco con un abrigo acolchado o Donald Trump bajo arresto, pero los expertos afirman que su uso se está extendiendo para generar pornografía no consensuada que puede destruir vidas comunes y corrientes.

Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y sin necesidad de conocimientos técnicos, que permiten a los usuarios retirar digitalmente la ropa de sus fotos o insertar sus rostros en videos sexualmente explícitos.

"El aumento de la pornografía generada por IA y de la 'deepfake porn' normaliza el uso de la imagen de una mujer sin su consentimiento", explica a la AFP Sophie Maddocks, investigadora de la Universidad de Pensilvania que estudia los abusos sexuales basados en imágenes.

"¿Qué mensaje enviamos como sociedad sobre el consentimiento cuando se puede desnudar virtualmente a cualquier mujer?", comentó.

En un dramático video, una "streamer" estadounidense de Twitch conocida como QTCinderella lamentó la "constante explotación y cosificación" de las mujeres cuando se convirtió en víctima del "porno deepfake". Fue acosada, agregó, por personas que le enviaban copias de las manipulaciones en las que aparecía.

El escándalo estalló en enero durante una transmisión en vivo del también "streamer" Brandon Ewing, quien fue sorprendido mirando un sitio web que contenía imágenes sexuales falsas de varias mujeres, entre ellas QTCinderella.

"No es tan simple como 'sólo' ser violada. Es mucho más que eso", escribió la creadora de contenido en Twitter, ahora llamado X, añadiendo que la experiencia la había "arruinado".

- "Chicas hiperreales" -

La proliferación de "deepfakes" subraya la amenaza de la desinformación habilitada por la IA, que puede dañar la reputación y provocar intimidación o acoso.

Si bien celebridades como la cantante Taylor Swift y la actriz Emma Watson han sido víctimas de la pornografía falsa, las mujeres que no están en el ojo público también son el objetivo de estos ataques.

Los medios de comunicación estadounidenses y europeos están llenos de testimonios de primera mano de mujeres, desde académicas hasta activistas, que se sorprendieron al descubrir sus rostros en videos pornográficos falsos.

Alrededor del 96% de los videos "deepfake" en línea son pornografía no consensuada y en la mayoría de ellos aparecen mujeres, según un estudio de 2019 realizado por la empresa holandesa de IA Sensity.

"El acto de la fantasía sexual, que antes era privado y que tiene lugar dentro de la mente de alguien, se transfiere ahora a la tecnología y a los creadores de contenidos en el mundo real", dijo a la AFP Roberta Duffield, directora de inteligencia de Blackbird.AI.

Hay aplicaciones gratuitas que pueden crear "chicas hiperreales de IA", avatares a partir de fotos reales, personalizándolas con indicaciones como "piel oscura" u otras con connotaciones sexuales.

- "Rincón oscuro" -

Los avances tecnológicos han dado lugar a lo que Duffield denomina una "industria artesanal en expansión" en torno al porno potenciado con IA, en la que muchos creadores de "deepfakes" aceptan solicitudes pagas para generar contenidos con una persona que el cliente elige.

El mes pasado, el FBI emitió una advertencia sobre los "esquemas de sextorsión", en los que los estafadores capturan fotos y videos de las redes sociales para crear material falso de "temática sexual" que luego se utilizan para chantajear al usuario afectado.

El FBI añadió que entre las víctimas había menores de edad y adultos que no dieron su consentimiento.

La proliferación de herramientas de inteligencia artificial ha superado la regulación.

"Esto no es un rincón oscuro de Internet, donde se crean y comparten estas imágenes", dijo a la AFP Dan Purcell, director ejecutivo y fundador de la empresa de protección de marcas de inteligencia artificial Ceartas.

"Está justo delante de nuestras narices. Y sí, la ley debe ponerse al día", añadió.

En Estados Unidos, cuatro estados, incluidos California y Virginia, prohibieron la distribución de pornografía falsa, pero las víctimas suelen tener pocos recursos legales si los perpetradores viven fuera de estas jurisdicciones.

En mayo, un legislador estadounidense presentó la Ley de prevención de falsificaciones profundas de imágenes íntimas, que haría ilegal compartir pornografía falsificada sin consentimiento.

Espacios en línea populares, como Reddit, también han tratado de regular sus florecientes comunidades de pornografía con IA.

"Internet es una jurisdicción sin fronteras, y debe haber una ley internacional unificada para proteger a las personas contra esta forma de explotación", dijo Purcell.

burs-ac/st/tjj/db/arm

R.Bernasconi--NZN