The Japan Times - L'IA non è ancora pronta a dare consigli sulla salute, l'esperimento

EUR -
AED 4.306153
AFN 75.0429
ALL 95.503739
AMD 434.75432
ANG 2.098709
AOA 1076.390828
ARS 1633.24778
AUD 1.628526
AWG 2.110569
AZN 1.997971
BAM 1.957785
BBD 2.362126
BDT 143.899979
BGN 1.955914
BHD 0.44281
BIF 3489.474751
BMD 1.172539
BND 1.496038
BOB 8.103802
BRL 5.808644
BSD 1.172804
BTN 111.252582
BWP 15.938311
BYN 3.309523
BYR 22981.755751
BZD 2.358712
CAD 1.59436
CDF 2720.28988
CHF 0.91605
CLF 0.026783
CLP 1054.112588
CNY 8.006387
CNH 8.009617
COP 4288.442525
CRC 533.195048
CUC 1.172539
CUP 31.072272
CVE 110.746729
CZK 24.373212
DJF 208.384014
DKK 7.475055
DOP 69.770598
DZD 155.365983
EGP 62.894658
ERN 17.588078
ETB 184.088973
FJD 2.570327
FKP 0.860939
GBP 0.862002
GEL 3.142861
GGP 0.860939
GHS 13.136953
GIP 0.860939
GMD 85.595732
GNF 10289.026269
GTQ 8.959961
GYD 245.356495
HKD 9.186899
HNL 31.213432
HRK 7.537125
HTG 153.631453
HUF 363.42071
IDR 20325.193765
ILS 3.451755
IMP 0.860939
INR 111.286226
IQD 1536.025512
IRR 1540715.666567
ISK 143.847483
JEP 0.860939
JMD 183.766277
JOD 0.831376
JPY 184.174195
KES 151.433806
KGS 102.503912
KHR 4704.815418
KMF 492.466605
KPW 1055.342165
KRW 1728.0057
KWD 0.36031
KYD 0.977362
KZT 543.223189
LAK 25772.39793
LBP 105000.828342
LKR 374.82671
LRD 215.600573
LSL 19.53494
LTL 3.462202
LVL 0.709257
LYD 7.446066
MAD 10.847448
MDL 20.206948
MGA 4866.035425
MKD 61.633886
MMK 2461.86164
MNT 4196.707877
MOP 9.463379
MRU 46.86681
MUR 55.144932
MVR 18.121629
MWK 2041.980281
MXN 20.469245
MYR 4.655421
MZN 74.929587
NAD 19.534934
NGN 1613.390048
NIO 43.044332
NOK 10.900392
NPR 177.995572
NZD 1.986849
OMR 0.451129
PAB 1.172774
PEN 4.112684
PGK 5.087352
PHP 71.847345
PKR 326.874482
PLN 4.245704
PYG 7213.019006
QAR 4.272149
RON 5.203848
RSD 117.378833
RUB 87.908248
RWF 1713.665104
SAR 4.396996
SBD 9.429684
SCR 16.118093
SDG 704.113715
SEK 10.803423
SGD 1.492177
SHP 0.875418
SLE 28.848748
SLL 24587.542811
SOS 669.519913
SRD 43.920994
STD 24269.180819
STN 24.869543
SVC 10.262409
SYP 129.594933
SZL 19.534925
THB 38.122791
TJS 11.000548
TMT 4.109748
TND 3.378963
TOP 2.823192
TRY 52.931326
TTD 7.960816
TWD 37.086813
TZS 3054.463338
UAH 51.532291
UGX 4409.902668
USD 1.172539
UYU 46.771998
UZS 14011.836168
VES 573.304233
VND 30903.426254
VUV 139.40416
WST 3.183663
XAF 656.670246
XAG 0.01556
XAU 0.000254
XCD 3.168845
XCG 2.113677
XDR 0.815653
XOF 656.621982
XPF 119.331742
YER 279.771908
ZAR 19.540971
ZMK 10554.258277
ZMW 21.901789
ZWL 377.556938
L'IA non è ancora pronta a dare consigli sulla salute, l'esperimento

L'IA non è ancora pronta a dare consigli sulla salute, l'esperimento

Non dialoga correttamente con i pazienti e fatica a decifrare i sintomi

Dimensione del testo:

I chatbot basati sull'intelligenza artificiale non sono ancora pronti a dispensare consigli sulla salute: non sempre riescono a interagire correttamente con i potenziali pazienti e spesso forniscono risposte equivocabili o potenzialmente fuorvianti. Lo dimostra un esperimento pubblicato sulla rivista Nature Medicine dall'Università di Oxford. Lo studio ha coinvolto quasi 1.300 persone online, alle quali sono stati sottoposti dieci diversi scenari medici (che vanno dal giovane che lamenta un forte mal di testa dopo una serata fuori con gli amici fino alla neomamma che si sente costantemente senza fiato ed esausta). Per ciascuno scenario, i partecipanti dovevano cercare di capire quale potesse essere il problema di salute alla base e valutare se fosse il caso di chiamare il medico di famiglia o un'ambulanza: come supporto potevano utilizzare un modello linguistico di grandi dimensioni (come GPT-4o, Llama 3 o Command R+) oppure potevano affidarsi alle loro risorse abituali, come i classici motori di ricerca su Internet. In parallelo, i ricercatori hanno sottoposto gli stessi scenari medici ai chatbot in condizioni controllate, fornendo loro la descrizione del problema di salute senza che ci fosse un dialogo diretto con utenti umani reali. I risultati dimostrano che quando i test sono stati condotti senza partecipanti umani, gli Llm hanno identificato correttamente i problemi di salute nel 94,9% dei casi e hanno scelto una linea d'azione corretta nel 56,3% dei casi. Tuttavia, quando erano i partecipanti umani a interrogare gli Llm sottoponendo i sintomi indicati negli scenari medici, i problemi di salute rilevanti venivano identificati in meno del 34,5% dei casi e una linea d'azione corretta veniva scelta in meno del 44,2% (risultati che non sono stati migliori rispetto a quanto ottenuto dal gruppo di controllo formato dai partecipanti che hanno usato i classici motori di ricerca del web). In 30 casi in particolare, i ricercatori sono andati a ispezionare manualmente le interazioni intercorse tra gli esseri umani e gli Llm e hanno scoperto che i partecipanti spesso fornivano informazioni incomplete o errate all'IA, ma anche che i chatbot a volte generavano informazioni fuorvianti o errate.

T.Ikeda--JT