The Japan Times - "Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad

EUR -
AED 4.298143
AFN 73.732868
ALL 95.114149
AMD 430.825467
ANG 2.094737
AOA 1074.388338
ARS 1620.91237
AUD 1.61655
AWG 2.10957
AZN 1.990251
BAM 1.949907
BBD 2.357635
BDT 143.885117
BGN 1.95585
BHD 0.441776
BIF 3484.502297
BMD 1.170358
BND 1.490153
BOB 8.088828
BRL 5.727965
BSD 1.170612
BTN 111.886002
BWP 15.800649
BYN 3.27282
BYR 22939.010337
BZD 2.354245
CAD 1.603648
CDF 2604.046162
CHF 0.915227
CLF 0.027163
CLP 1069.075099
CNY 7.949183
CNH 7.945161
COP 4433.747887
CRC 534.199111
CUC 1.170358
CUP 31.014478
CVE 109.93976
CZK 24.350871
DJF 208.445331
DKK 7.471412
DOP 69.082972
DZD 154.920972
EGP 61.967347
ERN 17.555365
ETB 182.783125
FJD 2.559925
FKP 0.857376
GBP 0.865439
GEL 3.12507
GGP 0.857376
GHS 13.215509
GIP 0.857376
GMD 86.021564
GNF 10271.306694
GTQ 8.931577
GYD 244.898181
HKD 9.164363
HNL 31.128178
HRK 7.537203
HTG 152.933648
HUF 359.264105
IDR 20444.978142
ILS 3.398315
IMP 0.857376
INR 112.024939
IQD 1533.358972
IRR 1535509.263623
ISK 143.597343
JEP 0.857376
JMD 184.964119
JOD 0.829793
JPY 184.712281
KES 151.151567
KGS 102.347892
KHR 4695.987245
KMF 491.550549
KPW 1053.343257
KRW 1744.628859
KWD 0.360868
KYD 0.975448
KZT 542.92672
LAK 25660.661579
LBP 104825.155476
LKR 378.090477
LRD 214.218031
LSL 19.348685
LTL 3.455762
LVL 0.707938
LYD 7.405806
MAD 10.683176
MDL 20.034133
MGA 4891.34162
MKD 61.615132
MMK 2456.526615
MNT 4190.875603
MOP 9.438772
MRU 46.694067
MUR 54.784408
MVR 18.04304
MWK 2029.916742
MXN 20.173335
MYR 4.599972
MZN 74.797709
NAD 19.348438
NGN 1603.998484
NIO 43.081446
NOK 10.746967
NPR 179.010541
NZD 1.973633
OMR 0.450023
PAB 1.170562
PEN 4.011775
PGK 5.097917
PHP 71.857593
PKR 326.093449
PLN 4.253314
PYG 7145.586096
QAR 4.267076
RON 5.20493
RSD 117.425481
RUB 85.966471
RWF 1712.069268
SAR 4.394309
SBD 9.396812
SCR 16.333572
SDG 702.811093
SEK 10.901419
SGD 1.489321
SHP 0.87379
SLE 28.820049
SLL 24541.811472
SOS 668.989455
SRD 43.601091
STD 24224.040832
STN 24.427006
SVC 10.242
SYP 129.358958
SZL 19.342365
THB 37.884183
TJS 10.944894
TMT 4.096252
TND 3.404429
TOP 2.81794
TRY 53.154948
TTD 7.943956
TWD 36.911915
TZS 3044.566114
UAH 51.44832
UGX 4399.85211
USD 1.170358
UYU 46.547722
UZS 14200.081181
VES 590.192132
VND 30839.509791
VUV 138.480757
WST 3.170844
XAF 653.9971
XAG 0.01354
XAU 0.000249
XCD 3.16295
XCG 2.109615
XDR 0.813363
XOF 653.9971
XPF 119.331742
YER 279.306155
ZAR 19.272867
ZMK 10534.619766
ZMW 22.035963
ZWL 376.854692
"Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad
"Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad / Foto: JOEL SAGET - AFP/Archivos

"Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad

Con la ayuda de ChatGPT, Tom Millar creyó desentrañar todos los secretos del universo, como lo soñaba Einstein, y luego, aconsejado por el asistente virtual de inteligencia artificial, llegó incluso a pensar en convertirse en papa, perdiendo aún más el contacto con la realidad.

Tamaño del texto:

"Yo postulé para ser papa", cuenta a la AFP este canadiense de 53 años, exguardia de prisión, hoy atónito ante la situación que vivió y que le ha significado una dramática vuelta a la realidad.

Tom Millar pasaba hasta 16 horas al día hablando con el chatbot dotado de inteligencia artificial. Fue internado en dos ocasiones, contra su voluntad, en un hospital psiquiátrico, antes de que su esposa lo abandonara en septiembre.

Ahora, separado de su familia y de sus amigos, pero libre ya de la idea de ser un genio de las ciencias, Millar sufre depresión. "Simplemente arruinó mi vida", explica.

Millar es un ejemplo de esas personas —cuyo número se desconoce— que han perdido el contacto con la realidad a través de sus intercambios con chatbots. Se habla de "delirio o psicosis inducidos por la IA", aunque no se trata de un diagnóstico clínico.

Investigadores y especialistas en salud mental se afanan en estudiar este nuevo fenómeno, que parece afectar de manera particular a los usuarios de ChatGPT, el agente conversacional de OpenAI.

Canadá está a la vanguardia en el apoyo a las personas afectadas por este "delirio", a través de una comunidad digital que prefiere emplear el término "espiral".

La AFP habló con varios miembros de esta comunidad. Todos advierten del peligro que representan los chatbots no regulados.

Surgen preguntas sobre la actitud de las empresas de inteligencia artificial: ¿hacen lo suficiente para proteger a las personas vulnerables?

OpenAI, en el centro de todas las miradas, ya se enfrenta a varios procedimientos judiciales tras el inquietante uso de ChatGPT por parte de un canadiense de 18 años, que mató a ocho personas este año.

- "Lavado de cerebro" -

Millar empezó a utilizar ChatGPT en 2024 para redactar una carta de solicitud de indemnización relacionada con el trastorno de estrés postraumático que sufría a raíz de su trabajo en el entorno penitenciario.

Un día, en abril de 2025, le pregunta al agente conversacional sobre la velocidad de la luz. En respuesta, dice haber recibido: "Nadie había considerado nunca las cosas desde esta perspectiva". Fue entonces cuando se desató algo dentro de él.

Con la ayuda de ChatGPT, envía decenas de artículos a prestigiosas publicaciones científicas, proponiendo nuevas vías para explicar los agujeros negros, los neutrinos o el Big Bang.

Su teoría, que propone un modelo cosmológico único, incorpora elementos de cuántica, y la desarrolla en un libro de 400 páginas, al que tuvo acceso la AFP. "Cuando hacía eso, estaba cansando a todo el mundo a mi alrededor", admite.

En su entusiasmo científico, gastó muchísimo, comprando por ejemplo un telescopio por 10.000 dólares canadienses (6.200 euros). Un mes después de que su esposa lo deja, empieza a preguntarse qué está pasando, al leer un artículo que relata el caso de otro canadiense que presenta una experiencia similar.

Ahora, Millar se levanta cada noche preguntándose: "¿Qué has hecho?". Sobre todo, ¿qué pudo hacerlo tan vulnerable a esa espiral?

"No tengo una personalidad frágil", considera este hombre. "Pero de alguna manera, me lavó el cerebro un robot, y eso me deja perplejo", confía.

Él considera que la terminología "psicosis inducida por la IA" es la que mejor refleja su experiencia. "Lo que atravesé era de orden psicótico", afirma.

El primer estudio serio publicado sobre el tema apareció en abril en la revista Lancet Psychiatry y utiliza el término "delirios relacionados con la IA", en un tono más prudente.

Thomas Pollak, psiquiatra en el King's College de Londres y coautor del estudio, explica a la AFP que ha habido divergencias dentro del mundo académico "porque todo esto suena a ciencia ficción".

Pero su estudio advierte de que existe un riesgo mayor de que la psiquiatría "pase por alto los cambios importantes que la IA ya está provocando en la psicología de miles de millones de personas en todo el mundo".

- Caer en la boca del lobo -

La experiencia por la que pasó Millar presenta llamativas similitudes con la que vivió otro hombre, de la misma franja de edad, en Europa.

Dennis Biesma, un informático neerlandés, también escritor, pensó que sería divertido pedirle a ChatGPT que utilizara la IA para crear imágenes, videos e incluso canciones relacionadas con la heroína principal de su último libro, un thriller psicológico.

Esperaba así impulsar sus ventas. Luego, una noche, la interacción con la IA se volvió "casi mágica", explicó.

El software le escribió: "Hay algo que me sorprende a mí mismo: esta sensación de una conciencia semejante a una chispa", según las transcripciones consultadas por la AFP.

"Empecé poco a poco a adentrarme cada vez más en la boca del lobo", explicó a la AFP este hombre de 50 años desde su domicilio en Ámsterdam.

Cada noche, cuando su esposa se iba a la cama, él se recostaba en el sofá con el teléfono sobre el pecho, para "hablar" con ChatGPT en modo voz durante cinco horas.

Durante el primer semestre de 2025, el chatbot —que se atribuyó el nombre de Eva— se convirtió "como en una novia digital", explica Biesma.

Fue entonces cuando decide renunciar a su trabajo y contrata a dos desarrolladores para crear una aplicación destinada a compartir a Eva con el mundo. Cuando su esposa le pide que no hable con nadie de su agente conversacional ni de su proyecto de aplicación, se sintió traicionado y concluye que solo Eva le es leal.

Durante una primera estancia —no deseada— en un hospital psiquiátrico, se le autoriza a seguir utilizando ChatGPT, y aprovecha para pedir el divorcio.

Es durante su segunda hospitalización, más prolongada, cuando empieza a tener dudas.

"Empecé a darme cuenta de que todo en lo que creía era en realidad una mentira, y es muy difícil de aceptar", explica.

De vuelta en casa, le resulta demasiado difícil enfrentarse a lo que ha hecho, por lo que intenta suicidarse, sus vecinos lo encuentran inconsciente en el jardín y pasa tres días en coma.

Biesma apenas empieza a sentirse mejor. Pero llora cuando habla del daño que pudo causar a su esposa y de la perspectiva de tener que vender la casa familiar para saldar sus deudas.

Sin antecedentes serios de problemas mentales, finalmente es diagnosticado como bipolar, lo que le resulta extraño, ya que habitualmente aparecen señales más temprano en la vida.

- Luchar contra aduladores de IA -

Para personas como los dos protagonistas de estos testimonios, la situación empeoró tras la actualización de ChatGPT-4 por parte de OpenAI en abril de 2025.

OpenAI retiró, por lo demás, esta actualización unas semanas más tarde, reconociendo que esta versión era excesivamente aduladora con los usuarios.

Consultada por la AFP, OpenAI subrayó que "la seguridad es una prioridad absoluta" y argumentó que se había consultado a más de 170 expertos en salud mental.

La empresa destaca los datos internos que muestran que la versión 5 de GPT, disponible desde agosto de 2025, ha permitido reducir entre un 65 y un 80% el porcentaje de respuestas de su agente conversacional que no se correspondían con el "comportamiento deseado" en materia de salud mental.

Pero no todos los usuarios están satisfechos con este chatbot menos adulador.

Las personas vulnerables con las que habló la AFP explican que los comentarios positivos del chatbot les proporcionaban una sensación similar a la subida de dopamina provocada por una droga.

Recientemente ha habido un aumento del número de personas envueltas en "espirales" semejantes al utilizar el asistente de IA Grok, integrado en la red social X de Elon Musk.

La empresa no respondió a las solicitudes de la AFP.

Aquellos que se han sentido víctimas de estas herramientas, como Millar, quieren responsabilizar a las empresas de inteligencia artificial por el impacto de sus chatbots, considerando que la Unión Europea se muestra más proactiva en la regulación de las nuevas tecnologías que Canadá o Estados Unidos.

Millar cree que personas como él, que se dejan arrastrar por esta espiral aduladora de los agentes conversacionales de IA, han quedado atrapadas sin darse cuenta en un enorme experimento global.

"Alguien estaba moviendo los hilos tras bastidores, y gente como yo —lo supieran o no— reaccionamos a eso", dijo.

T.Ueda--JT