The Japan Times - La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

EUR -
AED 4.331023
AFN 77.824044
ALL 96.204991
AMD 446.932449
ANG 2.110769
AOA 1081.2786
ARS 1712.071881
AUD 1.697104
AWG 2.122466
AZN 2.007924
BAM 1.945772
BBD 2.377447
BDT 144.365962
BGN 1.980226
BHD 0.444554
BIF 3495.583857
BMD 1.179148
BND 1.499385
BOB 8.186157
BRL 6.208092
BSD 1.180416
BTN 107.944132
BWP 15.536586
BYN 3.37998
BYR 23111.298228
BZD 2.373975
CAD 1.614548
CDF 2541.063785
CHF 0.92033
CLF 0.025849
CLP 1020.682673
CNY 8.190951
CNH 8.184436
COP 4260.603203
CRC 585.686437
CUC 1.179148
CUP 31.247419
CVE 109.699626
CZK 24.301878
DJF 209.557895
DKK 7.468724
DOP 74.227828
DZD 153.236192
EGP 55.532091
ERN 17.687218
ETB 184.008454
FJD 2.627969
FKP 0.860488
GBP 0.863461
GEL 3.177812
GGP 0.860488
GHS 12.943292
GIP 0.860488
GMD 86.077934
GNF 10357.749649
GTQ 9.05732
GYD 246.967642
HKD 9.209086
HNL 31.15941
HRK 7.528271
HTG 154.704646
HUF 380.935486
IDR 19781.384647
ILS 3.656349
IMP 0.860488
INR 107.264075
IQD 1546.330471
IRR 49671.604158
ISK 145.212068
JEP 0.860488
JMD 185.337161
JOD 0.835984
JPY 183.495423
KES 152.263492
KGS 103.115876
KHR 4752.706874
KMF 489.346754
KPW 1061.233082
KRW 1712.346624
KWD 0.362222
KYD 0.983672
KZT 596.092892
LAK 25385.276168
LBP 105707.384156
LKR 365.540714
LRD 218.970746
LSL 18.8985
LTL 3.481717
LVL 0.713255
LYD 7.457659
MAD 10.764223
MDL 19.984849
MGA 5263.893095
MKD 61.629401
MMK 2476.194563
MNT 4203.220257
MOP 9.495959
MRU 46.872427
MUR 53.827748
MVR 18.229311
MWK 2046.76002
MXN 20.530367
MYR 4.648174
MZN 75.182584
NAD 18.8985
NGN 1644.156287
NIO 43.436137
NOK 11.451318
NPR 172.711339
NZD 1.965421
OMR 0.453398
PAB 1.180421
PEN 3.97571
PGK 5.057932
PHP 69.416105
PKR 330.421765
PLN 4.221797
PYG 7848.549884
QAR 4.315061
RON 5.095451
RSD 117.405364
RUB 90.14055
RWF 1725.705999
SAR 4.422011
SBD 9.494043
SCR 17.685253
SDG 709.260254
SEK 10.58085
SGD 1.500743
SHP 0.884666
SLE 28.682728
SLL 24726.14037
SOS 674.628797
SRD 44.837082
STD 24405.980193
STN 24.374379
SVC 10.328898
SYP 13040.874167
SZL 18.889646
THB 37.237836
TJS 11.024827
TMT 4.127018
TND 3.405548
TOP 2.839105
TRY 51.257794
TTD 7.991879
TWD 37.251051
TZS 3052.21225
UAH 50.836046
UGX 4216.270048
USD 1.179148
UYU 45.793985
UZS 14430.626958
VES 436.038953
VND 30681.427545
VUV 140.503382
WST 3.196411
XAF 652.621173
XAG 0.014976
XAU 0.000253
XCD 3.186706
XCG 2.127336
XDR 0.810328
XOF 652.593641
XPF 119.331742
YER 281.020373
ZAR 19.00208
ZMK 10613.749147
ZMW 23.165591
ZWL 379.685133
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos / Foto: Kirill KUDRYAVTSEV - AFP

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

K.Abe--JT