The Japan Times - Mon psy est une IA, c'est grave docteur ?

EUR -
AED 4.324133
AFN 78.157457
ALL 96.380399
AMD 449.156435
ANG 2.108082
AOA 1079.707922
ARS 1708.376893
AUD 1.752917
AWG 2.119677
AZN 2.006313
BAM 1.95298
BBD 2.371775
BDT 143.902177
BGN 1.955017
BHD 0.444321
BIF 3482.570496
BMD 1.177435
BND 1.511917
BOB 8.155188
BRL 6.527745
BSD 1.177599
BTN 105.800204
BWP 15.479579
BYN 3.437236
BYR 23077.71732
BZD 2.36837
CAD 1.61079
CDF 2590.356452
CHF 0.929214
CLF 0.02719
CLP 1066.642572
CNY 8.275604
CNH 8.246852
COP 4352.975558
CRC 588.150597
CUC 1.177435
CUP 31.202016
CVE 110.105986
CZK 24.242911
DJF 209.254133
DKK 7.471298
DOP 73.813399
DZD 152.737266
EGP 55.99151
ERN 17.661518
ETB 183.214625
FJD 2.671839
FKP 0.872958
GBP 0.872174
GEL 3.161459
GGP 0.872958
GHS 13.101024
GIP 0.872958
GMD 87.723409
GNF 10292.136168
GTQ 9.021971
GYD 246.363158
HKD 9.150728
HNL 31.040172
HRK 7.536646
HTG 154.187324
HUF 386.909506
IDR 19748.285623
ILS 3.759113
IMP 0.872958
INR 105.739868
IQD 1542.672084
IRR 49599.431135
ISK 148.039301
JEP 0.872958
JMD 187.838725
JOD 0.834848
JPY 184.356862
KES 151.830639
KGS 102.937263
KHR 4720.163129
KMF 492.168057
KPW 1059.65744
KRW 1698.249636
KWD 0.361661
KYD 0.981379
KZT 605.235922
LAK 25485.086391
LBP 105452.458482
LKR 364.533543
LRD 208.428104
LSL 19.598596
LTL 3.476659
LVL 0.712219
LYD 6.372796
MAD 10.743984
MDL 19.754387
MGA 5385.199863
MKD 61.559944
MMK 2472.378569
MNT 4189.322215
MOP 9.432538
MRU 46.631655
MUR 54.150661
MVR 18.191809
MWK 2041.94237
MXN 21.0888
MYR 4.766848
MZN 75.250287
NAD 19.598596
NGN 1708.563955
NIO 43.337412
NOK 11.785418
NPR 169.280526
NZD 2.017192
OMR 0.452936
PAB 1.177594
PEN 3.962577
PGK 5.085655
PHP 69.127624
PKR 329.871502
PLN 4.215275
PYG 7980.474654
QAR 4.292301
RON 5.092527
RSD 117.392439
RUB 93.026079
RWF 1715.115758
SAR 4.416208
SBD 9.600085
SCR 17.031368
SDG 708.231214
SEK 10.782833
SGD 1.511948
SHP 0.883381
SLE 28.346782
SLL 24690.218261
SOS 671.826899
SRD 45.137547
STD 24370.518102
STN 24.464668
SVC 10.304119
SYP 13018.629636
SZL 19.582719
THB 36.583326
TJS 10.822025
TMT 4.132795
TND 3.425952
TOP 2.83498
TRY 50.438357
TTD 8.010397
TWD 36.965602
TZS 2908.263751
UAH 49.678255
UGX 4250.860936
USD 1.177435
UYU 46.023533
UZS 14192.503285
VES 339.20575
VND 30955.931942
VUV 142.088798
WST 3.262495
XAF 655.00826
XAG 0.014845
XAU 0.00026
XCD 3.182076
XCG 2.122335
XDR 0.815866
XOF 655.011038
XPF 119.331742
YER 280.759698
ZAR 19.625523
ZMK 10598.328156
ZMW 26.583495
ZWL 379.133447
  • AEX

    -0.8500

    941.37

    -0.09%

  • BEL20

    -17.2000

    5040.37

    -0.34%

  • PX1

    0.0000

    8103.58

    0%

  • ISEQ

    -6.5200

    13037.23

    -0.05%

  • OSEBX

    4.1600

    1666.51

    +0.25%

  • PSI20

    13.8900

    8183.11

    +0.17%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    5.4700

    4214.37

    +0.13%

  • N150

    6.3700

    3753.91

    +0.17%

Mon psy est une IA, c'est grave docteur ?
Mon psy est une IA, c'est grave docteur ? / Photo: Marco BERTORELLO - AFP/Archives

Mon psy est une IA, c'est grave docteur ?

ChatGPT est-il un bon psychologue ? Une responsable de la firme californienne d'intelligence artificielle OpenAI, à l'origine du chatbot viral, l'a récemment suggéré, s'attirant de nombreuses critiques pour avoir minimisé la difficulté à soigner les pathologies mentales.

Taille du texte:

"Je viens d'avoir une conversation personnelle assez émouvante avec ChatGPT en mode vocal, à propos de stress et d'équilibre travail-vie personnelle", a déclaré Lilian Weng, chargée des enjeux de sécurité liés à l'intelligence artificielle, fin septembre sur X (ex-Twitter).

"Fait intéressant, je me suis sentie écoutée et réconfortée. Je n'avais jamais tenté de thérapie auparavant mais ça ressemble probablement à ça?", s'est-elle interrogée.

Son message permettait évidemment de mettre en lumière la toute nouvelle fonctionnalité (payante) de synthèse vocale du robot sorti il y a près d'un an et qui cherche son modèle économique.

La psychologie "a pour but d'améliorer la santé mentale et c'est un travail difficile", lui a vertement répondu la développeuse et activiste américaine Cher Scarlett.

"S'envoyer à soi-même des ondes positives, c'est bien, mais ça n'a rien à voir" avec une thérapie, a-t-elle tancé.

Mais l'interaction avec une IA peut-elle réellement produire l'expérience positive décrite par Lilian Weng ?

Selon une étude publiée cette semaine dans la revue scientifique Nature Machine Intelligence, ce phénomène pourrait s'expliquer par un effet placebo.

Pour le démontrer, des chercheurs du Massachusetts Institute of Technology (MIT) et de l'université d'Arizona ont interrogé 300 participants, expliquant à certains que le chatbot était doté d'empathie, à d'autres qu'il était manipulateur et à un troisième groupe qu'il avait un comportement équilibré.

Résultat, ceux qui pensaient dialoguer avec un assistant virtuel bienveillant étaient bien plus enclins à considérer l'agent conversationnel comme digne de confiance.

"Nous constatons qu'en quelque sorte, l'IA est perçue selon les préconceptions de l'utilisateur," a déclaré Pat Pataranutaporn, co-auteur de l'étude.

- "Stupidité" des robots -

Sans s'encombrer de trop de précautions dans un domaine pourtant sensible, de nombreuses start-up se sont lancées dans le développement d'applications censées offrir une forme d'assistance en matière de santé mentale, occasionnant de premières polémiques.

Des utilisateurs de Replika, une appli populaire réputée pour apporter des bienfaits psychologiques, se sont notamment plaints que l'IA pouvait devenir obsédée par le sexe ou manipulatrice.

L'ONG américaine Koko, qui a mené en février une expérience avec 4.000 patients en leur proposant des conseils rédigés à l'aide du modèle d'IA GPT-3, a également reconnu que les réponses automatisées ne fonctionnaient pas en tant que thérapie.

"L'empathie simulée paraît étrange, vide de sens", a écrit le cofondateur de la société, Rob Morris, sur X.

Cette remarque fait écho aux conclusions de la précédente étude sur l'effet placebo, lors de laquelle certains participants ont eu l'impression de "parler à un mur".

Interrogé par l'AFP, David Shaw, de l'université de Bâle, n'est pas étonné de ces piètres résultats. "Il semble qu'aucun des participants n'ait été informé de la stupidité des chatbots", remarque-t-il.

L'idée d'un robot thérapeute n'est pourtant pas récente. Dans les années 60, le premier programme du genre, Eliza, a été développé pour simuler une psychothérapie grâce à la méthode du psychologue américain Carl Rogers.

Sans rien comprendre réellement des problèmes qui lui étaient racontés, le logiciel se contentait de prolonger la discussion avec des questions types enrichies de mots-clés trouvés dans les réponses de ses interlocuteurs.

"Ce que je n'avais pas réalisé, c'est qu'une exposition extrêmement courte à un programme informatique relativement simple pouvait induire de puissantes pensées délirantes chez des personnes tout à fait normales", avait par la suite écrit Joseph Weizenbaum, le créateur de cet ancêtre de ChatGPT.

Y.Kimura--JT