Zürcher Nachrichten - En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

EUR -
AED 4.246607
AFN 72.836971
ALL 95.988209
AMD 436.44581
ANG 2.069579
AOA 1060.176801
ARS 1608.790603
AUD 1.643499
AWG 2.083934
AZN 1.97002
BAM 1.953554
BBD 2.327913
BDT 141.823246
BGN 1.976193
BHD 0.436496
BIF 3433.722833
BMD 1.156136
BND 1.478219
BOB 7.98692
BRL 6.124098
BSD 1.155866
BTN 108.057219
BWP 15.761082
BYN 3.506783
BYR 22660.258427
BZD 2.324617
CAD 1.584894
CDF 2630.208986
CHF 0.911336
CLF 0.027173
CLP 1072.952133
CNY 7.961617
CNH 7.983279
COP 4295.63351
CRC 539.876895
CUC 1.156136
CUP 30.637594
CVE 110.816056
CZK 24.52284
DJF 205.46888
DKK 7.471717
DOP 68.212417
DZD 152.647385
EGP 60.388322
ERN 17.342035
ETB 181.687168
FJD 2.560205
FKP 0.866013
GBP 0.866414
GEL 3.138955
GGP 0.866013
GHS 12.607705
GIP 0.866013
GMD 84.980421
GNF 10147.984977
GTQ 8.853781
GYD 241.825078
HKD 9.057144
HNL 30.707411
HRK 7.532575
HTG 151.633679
HUF 393.293647
IDR 19618.465574
ILS 3.59457
IMP 0.866013
INR 108.402288
IQD 1514.537681
IRR 1521040.943935
ISK 143.812158
JEP 0.866013
JMD 181.590416
JOD 0.819746
JPY 184.071249
KES 149.839573
KGS 101.101638
KHR 4636.104298
KMF 493.670321
KPW 1040.465241
KRW 1737.72393
KWD 0.35446
KYD 0.963205
KZT 555.688646
LAK 24839.574501
LBP 103531.946431
LKR 360.563851
LRD 212.006417
LSL 19.666308
LTL 3.413768
LVL 0.699335
LYD 7.376585
MAD 10.822012
MDL 20.129116
MGA 4821.085995
MKD 61.715229
MMK 2427.622447
MNT 4127.028255
MOP 9.329732
MRU 46.396161
MUR 53.764632
MVR 17.874294
MWK 2008.207995
MXN 20.710673
MYR 4.554063
MZN 73.881379
NAD 19.458199
NGN 1567.986267
NIO 42.453736
NOK 11.059224
NPR 172.891204
NZD 1.980241
OMR 0.44452
PAB 1.155886
PEN 4.02224
PGK 4.984968
PHP 69.346754
PKR 322.797348
PLN 4.277841
PYG 7549.286912
QAR 4.213541
RON 5.094285
RSD 117.472674
RUB 96.105493
RWF 1686.80189
SAR 4.341061
SBD 9.308811
SCR 17.325632
SDG 694.837908
SEK 10.812736
SGD 1.481265
SHP 0.867401
SLE 28.412077
SLL 24243.598694
SOS 660.735749
SRD 43.340639
STD 23929.673396
STN 24.874258
SVC 10.113371
SYP 128.059734
SZL 19.458189
THB 37.961757
TJS 11.101879
TMT 4.058036
TND 3.363242
TOP 2.783697
TRY 51.227912
TTD 7.841949
TWD 36.970332
TZS 2990.534467
UAH 50.634759
UGX 4368.957522
USD 1.156136
UYU 46.576445
UZS 14099.074443
VES 525.68404
VND 30420.240803
VUV 137.62215
WST 3.172627
XAF 655.212115
XAG 0.016652
XAU 0.000253
XCD 3.124515
XCG 2.083096
XDR 0.816065
XOF 659.579533
XPF 119.331742
YER 275.858111
ZAR 19.718414
ZMK 10406.612213
ZMW 22.568343
ZWL 372.275202
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa / Foto: Stefani REYNOLDS - AFP

En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

Aplicaciones fotográficas que desnudan digitalmente a las mujeres, la posibilidad de crear desde una simple frase fotos de "chicas de inteligencia artificial (IA)" e imágenes manipuladas que alimentan la "extorsión sexual": el auge de la pornografía ultrafalsa está superando esfuerzos de EEUU y Europa para regular la tecnología.

Tamaño del texto:

Las falsificaciones de fotos y videos cada vez más realistas basadas en IA -llamadas "deepfakes"- generalmente se asocian a personalidades conocidas, como el papa Francisco con un abrigo acolchado o Donald Trump bajo arresto, pero los expertos afirman que su uso se está extendiendo para generar pornografía no consensuada que puede destruir vidas comunes y corrientes.

Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y sin necesidad de conocimientos técnicos, que permiten a los usuarios retirar digitalmente la ropa de sus fotos o insertar sus rostros en videos sexualmente explícitos.

"El aumento de la pornografía generada por IA y de la 'deepfake porn' normaliza el uso de la imagen de una mujer sin su consentimiento", explica a la AFP Sophie Maddocks, investigadora de la Universidad de Pensilvania que estudia los abusos sexuales basados en imágenes.

"¿Qué mensaje enviamos como sociedad sobre el consentimiento cuando se puede desnudar virtualmente a cualquier mujer?", comentó.

En un dramático video, una "streamer" estadounidense de Twitch conocida como QTCinderella lamentó la "constante explotación y cosificación" de las mujeres cuando se convirtió en víctima del "porno deepfake". Fue acosada, agregó, por personas que le enviaban copias de las manipulaciones en las que aparecía.

El escándalo estalló en enero durante una transmisión en vivo del también "streamer" Brandon Ewing, quien fue sorprendido mirando un sitio web que contenía imágenes sexuales falsas de varias mujeres, entre ellas QTCinderella.

"No es tan simple como 'sólo' ser violada. Es mucho más que eso", escribió la creadora de contenido en Twitter, ahora llamado X, añadiendo que la experiencia la había "arruinado".

- "Chicas hiperreales" -

La proliferación de "deepfakes" subraya la amenaza de la desinformación habilitada por la IA, que puede dañar la reputación y provocar intimidación o acoso.

Si bien celebridades como la cantante Taylor Swift y la actriz Emma Watson han sido víctimas de la pornografía falsa, las mujeres que no están en el ojo público también son el objetivo de estos ataques.

Los medios de comunicación estadounidenses y europeos están llenos de testimonios de primera mano de mujeres, desde académicas hasta activistas, que se sorprendieron al descubrir sus rostros en videos pornográficos falsos.

Alrededor del 96% de los videos "deepfake" en línea son pornografía no consensuada y en la mayoría de ellos aparecen mujeres, según un estudio de 2019 realizado por la empresa holandesa de IA Sensity.

"El acto de la fantasía sexual, que antes era privado y que tiene lugar dentro de la mente de alguien, se transfiere ahora a la tecnología y a los creadores de contenidos en el mundo real", dijo a la AFP Roberta Duffield, directora de inteligencia de Blackbird.AI.

Hay aplicaciones gratuitas que pueden crear "chicas hiperreales de IA", avatares a partir de fotos reales, personalizándolas con indicaciones como "piel oscura" u otras con connotaciones sexuales.

- "Rincón oscuro" -

Los avances tecnológicos han dado lugar a lo que Duffield denomina una "industria artesanal en expansión" en torno al porno potenciado con IA, en la que muchos creadores de "deepfakes" aceptan solicitudes pagas para generar contenidos con una persona que el cliente elige.

El mes pasado, el FBI emitió una advertencia sobre los "esquemas de sextorsión", en los que los estafadores capturan fotos y videos de las redes sociales para crear material falso de "temática sexual" que luego se utilizan para chantajear al usuario afectado.

El FBI añadió que entre las víctimas había menores de edad y adultos que no dieron su consentimiento.

La proliferación de herramientas de inteligencia artificial ha superado la regulación.

"Esto no es un rincón oscuro de Internet, donde se crean y comparten estas imágenes", dijo a la AFP Dan Purcell, director ejecutivo y fundador de la empresa de protección de marcas de inteligencia artificial Ceartas.

"Está justo delante de nuestras narices. Y sí, la ley debe ponerse al día", añadió.

En Estados Unidos, cuatro estados, incluidos California y Virginia, prohibieron la distribución de pornografía falsa, pero las víctimas suelen tener pocos recursos legales si los perpetradores viven fuera de estas jurisdicciones.

En mayo, un legislador estadounidense presentó la Ley de prevención de falsificaciones profundas de imágenes íntimas, que haría ilegal compartir pornografía falsificada sin consentimiento.

Espacios en línea populares, como Reddit, también han tratado de regular sus florecientes comunidades de pornografía con IA.

"Internet es una jurisdicción sin fronteras, y debe haber una ley internacional unificada para proteger a las personas contra esta forma de explotación", dijo Purcell.

burs-ac/st/tjj/db/arm

R.Bernasconi--NZN