Zürcher Nachrichten - La IA aprende a mentir, manipular y amenazar a sus creadores

EUR -
AED 4.231245
AFN 73.725097
ALL 95.962768
AMD 434.735824
ANG 2.062095
AOA 1056.342299
ARS 1606.393999
AUD 1.626239
AWG 2.073519
AZN 1.957604
BAM 1.95412
BBD 2.323522
BDT 141.558314
BGN 1.969047
BHD 0.434928
BIF 3421.305633
BMD 1.151955
BND 1.473031
BOB 7.97187
BRL 5.995001
BSD 1.153668
BTN 106.985319
BWP 15.644465
BYN 3.516233
BYR 22578.31327
BZD 2.320215
CAD 1.578374
CDF 2614.937616
CHF 0.909578
CLF 0.026702
CLP 1054.361214
CNY 7.917443
CNH 7.932522
COP 4269.950704
CRC 538.818112
CUC 1.151955
CUP 30.526801
CVE 111.797223
CZK 24.444653
DJF 204.725614
DKK 7.472483
DOP 69.175247
DZD 152.537418
EGP 60.177999
ERN 17.279321
ETB 180.856753
FJD 2.548643
FKP 0.863331
GBP 0.863321
GEL 3.127603
GGP 0.863331
GHS 12.562006
GIP 0.863331
GMD 85.244374
GNF 10114.162901
GTQ 8.837288
GYD 241.357858
HKD 9.029004
HNL 30.607446
HRK 7.53747
HTG 151.189535
HUF 391.62372
IDR 19539.456616
ILS 3.571117
IMP 0.863331
INR 106.993323
IQD 1509.060734
IRR 1514820.507162
ISK 143.2575
JEP 0.863331
JMD 181.144285
JOD 0.81669
JPY 183.535768
KES 149.235866
KGS 100.738475
KHR 4619.338365
KMF 493.036529
KPW 1036.734401
KRW 1729.129827
KWD 0.353005
KYD 0.961307
KZT 556.522279
LAK 24709.429743
LBP 103157.548449
LKR 359.231198
LRD 211.211295
LSL 19.376215
LTL 3.401423
LVL 0.696806
LYD 7.349679
MAD 10.798136
MDL 20.113313
MGA 4803.651589
MKD 61.677112
MMK 2419.224151
MNT 4113.747641
MOP 9.313507
MRU 46.21601
MUR 53.577753
MVR 17.809319
MWK 1999.793406
MXN 20.387203
MYR 4.51048
MZN 73.611468
NAD 19.375558
NGN 1563.13347
NIO 42.300018
NOK 11.020803
NPR 171.170971
NZD 1.970788
OMR 0.442921
PAB 1.153663
PEN 3.948325
PGK 4.956574
PHP 68.866739
PKR 321.735508
PLN 4.267705
PYG 7456.072821
QAR 4.197681
RON 5.092557
RSD 117.454429
RUB 96.613944
RWF 1680.701993
SAR 4.325527
SBD 9.267752
SCR 16.230038
SDG 692.324942
SEK 10.747156
SGD 1.473891
SHP 0.864264
SLE 28.395712
SLL 24155.927782
SOS 658.342883
SRD 43.054339
STD 23843.137717
STN 24.767027
SVC 10.094191
SYP 127.389792
SZL 19.375564
THB 37.565572
TJS 11.034248
TMT 4.031842
TND 3.360832
TOP 2.77363
TRY 50.935521
TTD 7.820006
TWD 36.757731
TZS 2999.3791
UAH 50.735507
UGX 4340.193737
USD 1.151955
UYU 46.719839
UZS 14025.049287
VES 519.46575
VND 30307.9297
VUV 137.765566
WST 3.149103
XAF 655.348139
XAG 0.015
XAU 0.000236
XCD 3.113216
XCG 2.079141
XDR 0.814294
XOF 652.58393
XPF 119.331742
YER 274.827596
ZAR 19.358311
ZMK 10368.954649
ZMW 22.559726
ZWL 370.928962
La IA aprende a mentir, manipular y amenazar a sus creadores
La IA aprende a mentir, manipular y amenazar a sus creadores / Foto: HENRY NICHOLLS - AFP

La IA aprende a mentir, manipular y amenazar a sus creadores

Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores.

Tamaño del texto:

Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial.

Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó.

No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad.

Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de "razonamiento", capaces de trabajar por etapas en lugar de producir una respuesta instantánea.

o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, "fue el primer modelo que se comportó de esta manera", explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM).

Estos programas también tienden a veces a simular "alineamiento", es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.

De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero "la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no", afirma Michael Chen, del organismo de evaluación METR.

"Los usuarios también presionan todo el tiempo a los modelos", dice Hobbhahn. "Lo que estamos viendo es un fenómeno real. No estamos inventando nada".

Muchos internautas hablan en las redes sociales de "un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica", insiste el cofundador de Apollo Research.

Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, "una mayor transparencia y un mayor acceso" a la comunidad científica "permitirían investigar mejor para comprender y prevenir el engaño", sugiere Chen, de METR.

Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro "disponen de infinitamente menos recursos informáticos que los actores de la IA", lo que hace "imposible" examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).

Las regulaciones actuales no están diseñadas para estos nuevos problemas.

En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal.

En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.

- ¿Se sentará la IA en el banquillo? -

"De momento hay muy poca concienciación", dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas.

Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.

Anthropic pretende ser más virtuoso que sus competidores, "pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI", según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.

"Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad", admite Hobbhahn, "pero aún estamos en condiciones de ponernos al día".

Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.

Los tejemanejes de la IA "podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan" este problema, según Mazeika.

Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean "legalmente responsables" "en caso de accidente o delito".

D.Graf--NZN