Zürcher Nachrichten - La IA aprende a mentir, manipular y amenazar a sus creadores

EUR -
AED 4.306153
AFN 75.0429
ALL 95.503739
AMD 434.75432
ANG 2.098709
AOA 1076.390828
ARS 1633.24778
AUD 1.628526
AWG 2.110569
AZN 1.997971
BAM 1.957785
BBD 2.362126
BDT 143.899979
BGN 1.955914
BHD 0.44281
BIF 3489.474751
BMD 1.172539
BND 1.496038
BOB 8.103802
BRL 5.808644
BSD 1.172804
BTN 111.252582
BWP 15.938311
BYN 3.309523
BYR 22981.755751
BZD 2.358712
CAD 1.592953
CDF 2720.28988
CHF 0.91605
CLF 0.026783
CLP 1054.112588
CNY 8.006387
CNH 8.009617
COP 4288.442525
CRC 533.195048
CUC 1.172539
CUP 31.072272
CVE 110.746729
CZK 24.365813
DJF 208.384014
DKK 7.468372
DOP 69.770598
DZD 155.365983
EGP 62.894658
ERN 17.588078
ETB 184.088973
FJD 2.570327
FKP 0.863714
GBP 0.862002
GEL 3.142861
GGP 0.863714
GHS 13.136953
GIP 0.863714
GMD 85.595732
GNF 10289.026269
GTQ 8.959961
GYD 245.356495
HKD 9.184382
HNL 31.213432
HRK 7.537125
HTG 153.631453
HUF 364.824102
IDR 20325.193765
ILS 3.451755
IMP 0.863714
INR 111.286226
IQD 1536.025512
IRR 1540715.666567
ISK 143.847483
JEP 0.863714
JMD 183.766277
JOD 0.831376
JPY 183.590271
KES 151.433806
KGS 102.503912
KHR 4704.815418
KMF 492.466605
KPW 1055.284674
KRW 1728.0057
KWD 0.36031
KYD 0.977362
KZT 543.223189
LAK 25772.39793
LBP 105000.828342
LKR 374.82671
LRD 215.600573
LSL 19.53494
LTL 3.462202
LVL 0.709257
LYD 7.446066
MAD 10.847448
MDL 20.206948
MGA 4866.035425
MKD 61.633886
MMK 2461.733132
MNT 4195.16771
MOP 9.463379
MRU 46.86681
MUR 55.144932
MVR 18.121629
MWK 2041.980281
MXN 20.470224
MYR 4.655421
MZN 74.929587
NAD 19.534934
NGN 1613.390048
NIO 43.044332
NOK 10.870375
NPR 177.995572
NZD 1.986849
OMR 0.451129
PAB 1.172774
PEN 4.112684
PGK 5.087352
PHP 71.847345
PKR 326.874482
PLN 4.253857
PYG 7213.019006
QAR 4.272149
RON 5.203848
RSD 117.378833
RUB 87.908248
RWF 1713.665104
SAR 4.396996
SBD 9.429684
SCR 16.118093
SDG 704.113715
SEK 10.846455
SGD 1.493936
SHP 0.875418
SLE 28.848748
SLL 24587.542811
SOS 669.519913
SRD 43.920994
STD 24269.180819
STN 24.869543
SVC 10.262409
SYP 129.594802
SZL 19.534925
THB 38.122791
TJS 11.000548
TMT 4.109748
TND 3.378963
TOP 2.823192
TRY 52.931326
TTD 7.960816
TWD 37.086813
TZS 3054.463338
UAH 51.532291
UGX 4409.902668
USD 1.172539
UYU 46.771998
UZS 14011.836168
VES 573.304233
VND 30903.426254
VUV 137.95079
WST 3.183664
XAF 656.670246
XAG 0.01556
XAU 0.000254
XCD 3.168845
XCG 2.113677
XDR 0.815653
XOF 656.621982
XPF 119.331742
YER 279.771908
ZAR 19.594648
ZMK 10554.258277
ZMW 21.901789
ZWL 377.556938
La IA aprende a mentir, manipular y amenazar a sus creadores
La IA aprende a mentir, manipular y amenazar a sus creadores / Foto: HENRY NICHOLLS - AFP

La IA aprende a mentir, manipular y amenazar a sus creadores

Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores.

Tamaño del texto:

Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial.

Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó.

No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad.

Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de "razonamiento", capaces de trabajar por etapas en lugar de producir una respuesta instantánea.

o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, "fue el primer modelo que se comportó de esta manera", explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM).

Estos programas también tienden a veces a simular "alineamiento", es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.

De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero "la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no", afirma Michael Chen, del organismo de evaluación METR.

"Los usuarios también presionan todo el tiempo a los modelos", dice Hobbhahn. "Lo que estamos viendo es un fenómeno real. No estamos inventando nada".

Muchos internautas hablan en las redes sociales de "un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica", insiste el cofundador de Apollo Research.

Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, "una mayor transparencia y un mayor acceso" a la comunidad científica "permitirían investigar mejor para comprender y prevenir el engaño", sugiere Chen, de METR.

Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro "disponen de infinitamente menos recursos informáticos que los actores de la IA", lo que hace "imposible" examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).

Las regulaciones actuales no están diseñadas para estos nuevos problemas.

En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal.

En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.

- ¿Se sentará la IA en el banquillo? -

"De momento hay muy poca concienciación", dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas.

Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.

Anthropic pretende ser más virtuoso que sus competidores, "pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI", según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.

"Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad", admite Hobbhahn, "pero aún estamos en condiciones de ponernos al día".

Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.

Los tejemanejes de la IA "podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan" este problema, según Mazeika.

Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean "legalmente responsables" "en caso de accidente o delito".

D.Graf--NZN