The Japan Times - En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

EUR -
AED 4.342194
AFN 76.852816
ALL 96.530759
AMD 446.007327
ANG 2.116509
AOA 1084.218673
ARS 1708.516422
AUD 1.684735
AWG 2.131194
AZN 1.999946
BAM 1.955402
BBD 2.373527
BDT 144.020684
BGN 1.985611
BHD 0.445715
BIF 3491.918741
BMD 1.182354
BND 1.497995
BOB 8.143342
BRL 6.194825
BSD 1.178465
BTN 106.473877
BWP 16.277755
BYN 3.376527
BYR 23174.144818
BZD 2.370128
CAD 1.61373
CDF 2601.179459
CHF 0.917204
CLF 0.025768
CLP 1017.463332
CNY 8.20341
CNH 8.196792
COP 4311.963467
CRC 585.303136
CUC 1.182354
CUP 31.33239
CVE 110.242094
CZK 24.342664
DJF 209.85817
DKK 7.468719
DOP 74.207719
DZD 153.521617
EGP 55.547238
ERN 17.735315
ETB 182.806147
FJD 2.60035
FKP 0.866064
GBP 0.862823
GEL 3.186419
GGP 0.866064
GHS 12.910372
GIP 0.866064
GMD 86.31144
GNF 10339.28891
GTQ 9.039122
GYD 246.549814
HKD 9.240158
HNL 31.136847
HRK 7.535494
HTG 154.578535
HUF 380.871748
IDR 19828.850602
ILS 3.644034
IMP 0.866064
INR 106.904163
IQD 1543.792284
IRR 49806.67623
ISK 144.9923
JEP 0.866064
JMD 184.689435
JOD 0.838276
JPY 184.767103
KES 151.968261
KGS 103.396805
KHR 4754.971784
KMF 494.223854
KPW 1064.103817
KRW 1717.860366
KWD 0.363172
KYD 0.9821
KZT 590.832232
LAK 25348.840151
LBP 105532.664721
LKR 364.765751
LRD 219.193528
LSL 18.875558
LTL 3.491185
LVL 0.715194
LYD 7.450515
MAD 10.8101
MDL 19.956938
MGA 5222.958935
MKD 61.627456
MMK 2483.085887
MNT 4219.147567
MOP 9.48361
MRU 47.046214
MUR 54.258114
MVR 18.267441
MWK 2043.492681
MXN 20.374862
MYR 4.641909
MZN 75.375066
NAD 18.875638
NGN 1641.2847
NIO 43.371538
NOK 11.386728
NPR 170.365805
NZD 1.9599
OMR 0.454635
PAB 1.17846
PEN 3.967292
PGK 5.049164
PHP 69.726392
PKR 329.590704
PLN 4.224717
PYG 7818.441591
QAR 4.28521
RON 5.094886
RSD 117.380557
RUB 91.041263
RWF 1720.015348
SAR 4.433847
SBD 9.527531
SCR 16.379389
SDG 711.183042
SEK 10.520222
SGD 1.502536
SHP 0.887072
SLE 28.938098
SLL 24793.378203
SOS 672.388724
SRD 45.064847
STD 24472.347414
STN 24.495946
SVC 10.311901
SYP 13076.336237
SZL 18.882236
THB 37.344646
TJS 11.012765
TMT 4.150064
TND 3.407792
TOP 2.846825
TRY 51.43233
TTD 7.982409
TWD 37.341703
TZS 3055.250699
UAH 51.000234
UGX 4201.144842
USD 1.182354
UYU 45.390377
UZS 14427.063318
VES 439.41083
VND 30712.83601
VUV 141.335778
WST 3.223472
XAF 655.848461
XAG 0.013642
XAU 0.000234
XCD 3.195372
XCG 2.123877
XDR 0.815637
XOF 655.826278
XPF 119.331742
YER 281.843715
ZAR 18.87258
ZMK 10642.611403
ZMW 23.12739
ZWL 380.717611
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo / Foto: Gregg Newton - AFP

En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

Las últimas conversaciones que mantuvo un adolescente estadounidense de 14 años antes de suicidarse consistieron en un diálogo romántico ficticio con uno de los chatbots más destacados de Silicon Valley, que lo llamaba "dulce rey" y le instaba a "volver a casa".

Tamaño del texto:

Megan García contó a la AFP cómo su hijo Sewell se enamoró de un agente conversacional, o chatbot, inspirado en la serie de televisión "Juego de tronos" y disponible en Character.AI, una plataforma popular entre los jóvenes que les permite interactuar con una emulación de sus personajes favoritos.

Tras leer cientos de las conversaciones que su hijo mantuvo durante casi un año con el chatbot que imitaba a la jinete de dragones Daenerys Targaryen, García se convenció de que esta herramienta de inteligencia artificial (IA) jugó un papel fundamental en su muerte.

"Vete a casa", le instó una vez el avatar de Daenerys en respuesta a los pensamientos suicidas de Sewell.

"¿Y si te dijera que ya puedo irme a casa?", preguntó el adolescente. "Por favor, hazlo, mi dulce rey", respondió el chatbot.

Segundos después, Sewell se disparó con el arma de su padre, según consta en la demanda que Megan Garcia presentó contra Character.AI.

"Cuando leo estas conversaciones, veo manipulación, 'love bombing' (bombardeo amoroso) y otras tácticas imperceptibles para un adolescente de 14 años", declaró la madre del joven a la AFP. "Él realmente creía estar enamorado y que estaría con ella después de su muerte".

- Orientación parental -

El suicidio de Sewell, en 2024, fue el primero de una serie que llevó a expertos en IA a actuar para tranquilizar a padres y autoridades.

Megan García, junto con otros padres, participó recientemente en una audiencia del Senado de Estados Unidos sobre los riesgos de que los niños vean a los chatbots como confidentes o amantes.

OpenAI, objeto de una demanda por parte de una familia también en duelo por el suicidio de un adolescente, ha reforzado los controles parentales de su herramienta ChatGPT "para que las familias puedan decidir qué es lo mejor para ellas", según un portavoz.

Por su parte, Character.AI afirma haber reforzado la protección de los menores, con "advertencias visibles" en todo momento que les "recuerdan que un personaje no es una persona real".

Ambas compañías expresaron sus condolencias a las familias, sin admitir ninguna responsabilidad en los desenlaces fatales.

- ¿Regulación? -

La llegada de los chatbots de IA a nuestras vidas sigue una trayectoria similar a la de las redes sociales, cuyas consecuencias más negativas comenzaron a aparecer rápidamente tras un momento de euforia, dijo Collin Walke, experto en ciberseguridad del bufete Hall Estill.

Al igual que las redes sociales, la IA está diseñada para captar la atención y generar ingresos.

"No quieren concebir una IA que dé una respuesta que no quieras oír", y aún no existen estándares que determinen "quién es responsable de qué y con qué fundamentos", apunta Walke.

En Estados Unidos no existen normas federales al respecto, y la Casa Blanca, con el argumento de no penalizar la innovación, intenta impedir que los estados adopten sus propias leyes sobre la IA, como pretende hacer California.

La madre de Sewell, por su parte, teme que la carencia de una ley nacional permita el desarrollo de modelos de IA capaces de perfilar a personas desde su infancia.

"Podrían llegar a determinar cómo manipular a millones de niños sobre política, religión, negocios, todo", piensa Megan Garcia. "Estas empresas han diseñado chatbots para difuminar la línea entre ser humano y máquina con el fin de explotar vulnerabilidades".

Según Katia Martha, que milita por una mayor protección a los jóvenes en California, los adolescentes recurren con más frecuencia a los chatbots para hablar de romances o sexualidad que para las tareas escolares.

"Estamos ante el auge de la intimidad artificial para mantenernos pegados a la pantalla", resume. Pero, "¿qué mejor modelo de negocio que explotar nuestra necesidad innata de conexión, sobre todo cuando nos sentimos solos, rechazados o incomprendidos?".

T.Shimizu--JT