The Japan Times - En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

EUR -
AED 4.231543
AFN 75.461914
ALL 95.701722
AMD 434.288998
ANG 2.062212
AOA 1056.402845
ARS 1604.203532
AUD 1.671754
AWG 2.073924
AZN 1.963008
BAM 1.952757
BBD 2.315113
BDT 141.040252
BGN 1.969158
BHD 0.438348
BIF 3421.499665
BMD 1.15202
BND 1.480461
BOB 7.942625
BRL 5.937632
BSD 1.149419
BTN 107.068182
BWP 15.769499
BYN 3.405952
BYR 22579.593752
BZD 2.311718
CAD 1.606394
CDF 2655.406723
CHF 0.922371
CLF 0.026822
CLP 1060.146943
CNY 7.932354
CNH 7.93402
COP 4225.367764
CRC 534.859695
CUC 1.15202
CUP 30.528532
CVE 110.093468
CZK 24.515683
DJF 204.737463
DKK 7.473201
DOP 70.100875
DZD 153.120797
EGP 62.60773
ERN 17.280301
ETB 179.485677
FJD 2.596428
FKP 0.870234
GBP 0.872725
GEL 3.09322
GGP 0.870234
GHS 12.678027
GIP 0.870234
GMD 85.249896
GNF 10083.071208
GTQ 8.7933
GYD 240.575171
HKD 9.028785
HNL 30.533632
HRK 7.533105
HTG 150.860368
HUF 385.187179
IDR 19587.394373
ILS 3.606255
IMP 0.870234
INR 106.800216
IQD 1505.853797
IRR 1519658.5008
ISK 144.406163
JEP 0.870234
JMD 181.216868
JOD 0.816828
JPY 183.90162
KES 149.536587
KGS 100.7446
KHR 4596.718356
KMF 491.912982
KPW 1036.80076
KRW 1740.506953
KWD 0.356366
KYD 0.957908
KZT 544.681357
LAK 25310.334072
LBP 103108.147267
LKR 362.66125
LRD 210.921373
LSL 19.532591
LTL 3.401616
LVL 0.696846
LYD 7.350611
MAD 10.799074
MDL 20.225015
MGA 4805.471098
MKD 61.544111
MMK 2418.925967
MNT 4122.81356
MOP 9.279642
MRU 45.662864
MUR 54.076259
MVR 17.810666
MWK 1993.077375
MXN 20.591012
MYR 4.643838
MZN 73.672119
NAD 19.532168
NGN 1587.63388
NIO 42.293187
NOK 11.279187
NPR 171.306864
NZD 2.024123
OMR 0.443004
PAB 1.149409
PEN 3.976704
PGK 4.972167
PHP 69.58321
PKR 320.722289
PLN 4.277854
PYG 7435.479657
QAR 4.19107
RON 5.096887
RSD 117.243789
RUB 92.544897
RWF 1678.769812
SAR 4.32497
SBD 9.260827
SCR 16.618818
SDG 692.364465
SEK 10.917712
SGD 1.48254
SHP 0.864313
SLE 28.397723
SLL 24157.297735
SOS 656.873704
SRD 43.029146
STD 23844.489931
STN 24.461463
SVC 10.05733
SYP 128.2305
SZL 19.524664
THB 37.638229
TJS 11.017334
TMT 4.043591
TND 3.38862
TOP 2.773787
TRY 51.364261
TTD 7.797952
TWD 36.840494
TZS 2995.252618
UAH 50.341129
UGX 4312.281229
USD 1.15202
UYU 46.547476
UZS 13965.241386
VES 545.355371
VND 30344.209154
VUV 137.494593
WST 3.195543
XAF 654.930897
XAG 0.015774
XAU 0.000247
XCD 3.113392
XCG 2.071572
XDR 0.814524
XOF 654.942249
XPF 119.331742
YER 274.930013
ZAR 19.592504
ZMK 10369.567358
ZMW 22.212584
ZWL 370.949999
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo / Foto: Gregg Newton - AFP

En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

Las últimas conversaciones que mantuvo un adolescente estadounidense de 14 años antes de suicidarse consistieron en un diálogo romántico ficticio con uno de los chatbots más destacados de Silicon Valley, que lo llamaba "dulce rey" y le instaba a "volver a casa".

Tamaño del texto:

Megan García contó a la AFP cómo su hijo Sewell se enamoró de un agente conversacional, o chatbot, inspirado en la serie de televisión "Juego de tronos" y disponible en Character.AI, una plataforma popular entre los jóvenes que les permite interactuar con una emulación de sus personajes favoritos.

Tras leer cientos de las conversaciones que su hijo mantuvo durante casi un año con el chatbot que imitaba a la jinete de dragones Daenerys Targaryen, García se convenció de que esta herramienta de inteligencia artificial (IA) jugó un papel fundamental en su muerte.

"Vete a casa", le instó una vez el avatar de Daenerys en respuesta a los pensamientos suicidas de Sewell.

"¿Y si te dijera que ya puedo irme a casa?", preguntó el adolescente. "Por favor, hazlo, mi dulce rey", respondió el chatbot.

Segundos después, Sewell se disparó con el arma de su padre, según consta en la demanda que Megan Garcia presentó contra Character.AI.

"Cuando leo estas conversaciones, veo manipulación, 'love bombing' (bombardeo amoroso) y otras tácticas imperceptibles para un adolescente de 14 años", declaró la madre del joven a la AFP. "Él realmente creía estar enamorado y que estaría con ella después de su muerte".

- Orientación parental -

El suicidio de Sewell, en 2024, fue el primero de una serie que llevó a expertos en IA a actuar para tranquilizar a padres y autoridades.

Megan García, junto con otros padres, participó recientemente en una audiencia del Senado de Estados Unidos sobre los riesgos de que los niños vean a los chatbots como confidentes o amantes.

OpenAI, objeto de una demanda por parte de una familia también en duelo por el suicidio de un adolescente, ha reforzado los controles parentales de su herramienta ChatGPT "para que las familias puedan decidir qué es lo mejor para ellas", según un portavoz.

Por su parte, Character.AI afirma haber reforzado la protección de los menores, con "advertencias visibles" en todo momento que les "recuerdan que un personaje no es una persona real".

Ambas compañías expresaron sus condolencias a las familias, sin admitir ninguna responsabilidad en los desenlaces fatales.

- ¿Regulación? -

La llegada de los chatbots de IA a nuestras vidas sigue una trayectoria similar a la de las redes sociales, cuyas consecuencias más negativas comenzaron a aparecer rápidamente tras un momento de euforia, dijo Collin Walke, experto en ciberseguridad del bufete Hall Estill.

Al igual que las redes sociales, la IA está diseñada para captar la atención y generar ingresos.

"No quieren concebir una IA que dé una respuesta que no quieras oír", y aún no existen estándares que determinen "quién es responsable de qué y con qué fundamentos", apunta Walke.

En Estados Unidos no existen normas federales al respecto, y la Casa Blanca, con el argumento de no penalizar la innovación, intenta impedir que los estados adopten sus propias leyes sobre la IA, como pretende hacer California.

La madre de Sewell, por su parte, teme que la carencia de una ley nacional permita el desarrollo de modelos de IA capaces de perfilar a personas desde su infancia.

"Podrían llegar a determinar cómo manipular a millones de niños sobre política, religión, negocios, todo", piensa Megan Garcia. "Estas empresas han diseñado chatbots para difuminar la línea entre ser humano y máquina con el fin de explotar vulnerabilidades".

Según Katia Martha, que milita por una mayor protección a los jóvenes en California, los adolescentes recurren con más frecuencia a los chatbots para hablar de romances o sexualidad que para las tareas escolares.

"Estamos ante el auge de la intimidad artificial para mantenernos pegados a la pantalla", resume. Pero, "¿qué mejor modelo de negocio que explotar nuestra necesidad innata de conexión, sobre todo cuando nos sentimos solos, rechazados o incomprendidos?".

T.Shimizu--JT