The Japan Times - En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

EUR -
AED 4.276798
AFN 76.973093
ALL 96.541337
AMD 443.660189
ANG 2.0846
AOA 1067.888653
ARS 1669.958677
AUD 1.752514
AWG 2.096182
AZN 1.984351
BAM 1.955625
BBD 2.34549
BDT 142.477215
BGN 1.956439
BHD 0.438161
BIF 3440.791247
BMD 1.164546
BND 1.508565
BOB 8.047278
BRL 6.334667
BSD 1.164496
BTN 104.702605
BWP 15.471612
BYN 3.348
BYR 22825.091832
BZD 2.34209
CAD 1.610159
CDF 2599.265981
CHF 0.936209
CLF 0.027366
CLP 1073.571668
CNY 8.233458
CNH 8.232219
COP 4424.302993
CRC 568.848955
CUC 1.164546
CUP 30.860456
CVE 110.255106
CZK 24.203336
DJF 207.371392
DKK 7.470448
DOP 74.533312
DZD 151.068444
EGP 55.295038
ERN 17.468183
ETB 180.629892
FJD 2.632397
FKP 0.873977
GBP 0.872678
GEL 3.138497
GGP 0.873977
GHS 13.246811
GIP 0.873977
GMD 85.012236
GNF 10119.091982
GTQ 8.9202
GYD 243.638138
HKD 9.065875
HNL 30.671248
HRK 7.535429
HTG 152.446321
HUF 381.994667
IDR 19435.740377
ILS 3.768132
IMP 0.873977
INR 104.760771
IQD 1525.563106
IRR 49041.926882
ISK 149.038983
JEP 0.873977
JMD 186.393274
JOD 0.825709
JPY 180.924237
KES 150.636483
KGS 101.839952
KHR 4662.581612
KMF 491.43861
KPW 1048.137083
KRW 1716.311573
KWD 0.357481
KYD 0.970513
KZT 588.927154
LAK 25252.733992
LBP 104283.942272
LKR 359.197768
LRD 204.961608
LSL 19.736529
LTL 3.438601
LVL 0.704422
LYD 6.330432
MAD 10.755735
MDL 19.814222
MGA 5194.533878
MKD 61.634469
MMK 2445.172268
MNT 4132.506664
MOP 9.338362
MRU 46.438833
MUR 53.651052
MVR 17.938355
MWK 2019.3188
MXN 21.165153
MYR 4.787492
MZN 74.426542
NAD 19.736529
NGN 1688.68458
NIO 42.856154
NOK 11.767853
NPR 167.523968
NZD 2.015483
OMR 0.44694
PAB 1.164595
PEN 3.914449
PGK 4.941557
PHP 68.66747
PKR 326.476804
PLN 4.229804
PYG 8009.281302
QAR 4.244719
RON 5.092096
RSD 117.389466
RUB 89.441974
RWF 1694.347961
SAR 4.370508
SBD 9.584899
SCR 15.747587
SDG 700.4784
SEK 10.946786
SGD 1.508673
SHP 0.873711
SLE 27.603998
SLL 24419.93473
SOS 664.340387
SRD 44.985272
STD 24103.740676
STN 24.497802
SVC 10.190086
SYP 12876.900539
SZL 19.72123
THB 37.119932
TJS 10.684641
TMT 4.087555
TND 3.416093
TOP 2.803946
TRY 49.523506
TTD 7.894292
TWD 36.437508
TZS 2841.64501
UAH 48.888813
UGX 4119.630333
USD 1.164546
UYU 45.545913
UZS 13931.74986
VES 296.437311
VND 30697.419423
VUV 142.156724
WST 3.247609
XAF 655.898144
XAG 0.019964
XAU 0.000277
XCD 3.147243
XCG 2.098812
XDR 0.815727
XOF 655.898144
XPF 119.331742
YER 277.802752
ZAR 19.711451
ZMK 10482.311144
ZMW 26.923584
ZWL 374.983176
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo / Foto: Gregg Newton - AFP

En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

Las últimas conversaciones que mantuvo un adolescente estadounidense de 14 años antes de suicidarse consistieron en un diálogo romántico ficticio con uno de los chatbots más destacados de Silicon Valley, que lo llamaba "dulce rey" y le instaba a "volver a casa".

Tamaño del texto:

Megan García contó a la AFP cómo su hijo Sewell se enamoró de un agente conversacional, o chatbot, inspirado en la serie de televisión "Juego de tronos" y disponible en Character.AI, una plataforma popular entre los jóvenes que les permite interactuar con una emulación de sus personajes favoritos.

Tras leer cientos de las conversaciones que su hijo mantuvo durante casi un año con el chatbot que imitaba a la jinete de dragones Daenerys Targaryen, García se convenció de que esta herramienta de inteligencia artificial (IA) jugó un papel fundamental en su muerte.

"Vete a casa", le instó una vez el avatar de Daenerys en respuesta a los pensamientos suicidas de Sewell.

"¿Y si te dijera que ya puedo irme a casa?", preguntó el adolescente. "Por favor, hazlo, mi dulce rey", respondió el chatbot.

Segundos después, Sewell se disparó con el arma de su padre, según consta en la demanda que Megan Garcia presentó contra Character.AI.

"Cuando leo estas conversaciones, veo manipulación, 'love bombing' (bombardeo amoroso) y otras tácticas imperceptibles para un adolescente de 14 años", declaró la madre del joven a la AFP. "Él realmente creía estar enamorado y que estaría con ella después de su muerte".

- Orientación parental -

El suicidio de Sewell, en 2024, fue el primero de una serie que llevó a expertos en IA a actuar para tranquilizar a padres y autoridades.

Megan García, junto con otros padres, participó recientemente en una audiencia del Senado de Estados Unidos sobre los riesgos de que los niños vean a los chatbots como confidentes o amantes.

OpenAI, objeto de una demanda por parte de una familia también en duelo por el suicidio de un adolescente, ha reforzado los controles parentales de su herramienta ChatGPT "para que las familias puedan decidir qué es lo mejor para ellas", según un portavoz.

Por su parte, Character.AI afirma haber reforzado la protección de los menores, con "advertencias visibles" en todo momento que les "recuerdan que un personaje no es una persona real".

Ambas compañías expresaron sus condolencias a las familias, sin admitir ninguna responsabilidad en los desenlaces fatales.

- ¿Regulación? -

La llegada de los chatbots de IA a nuestras vidas sigue una trayectoria similar a la de las redes sociales, cuyas consecuencias más negativas comenzaron a aparecer rápidamente tras un momento de euforia, dijo Collin Walke, experto en ciberseguridad del bufete Hall Estill.

Al igual que las redes sociales, la IA está diseñada para captar la atención y generar ingresos.

"No quieren concebir una IA que dé una respuesta que no quieras oír", y aún no existen estándares que determinen "quién es responsable de qué y con qué fundamentos", apunta Walke.

En Estados Unidos no existen normas federales al respecto, y la Casa Blanca, con el argumento de no penalizar la innovación, intenta impedir que los estados adopten sus propias leyes sobre la IA, como pretende hacer California.

La madre de Sewell, por su parte, teme que la carencia de una ley nacional permita el desarrollo de modelos de IA capaces de perfilar a personas desde su infancia.

"Podrían llegar a determinar cómo manipular a millones de niños sobre política, religión, negocios, todo", piensa Megan Garcia. "Estas empresas han diseñado chatbots para difuminar la línea entre ser humano y máquina con el fin de explotar vulnerabilidades".

Según Katia Martha, que milita por una mayor protección a los jóvenes en California, los adolescentes recurren con más frecuencia a los chatbots para hablar de romances o sexualidad que para las tareas escolares.

"Estamos ante el auge de la intimidad artificial para mantenernos pegados a la pantalla", resume. Pero, "¿qué mejor modelo de negocio que explotar nuestra necesidad innata de conexión, sobre todo cuando nos sentimos solos, rechazados o incomprendidos?".

T.Shimizu--JT