The Japan Times - L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude

EUR -
AED 4.237287
AFN 72.117307
ALL 95.91439
AMD 435.290419
ANG 2.064971
AOA 1058.023471
ARS 1610.104841
AUD 1.619171
AWG 2.079704
AZN 1.957872
BAM 1.94583
BBD 2.311258
BDT 141.289363
BGN 1.901035
BHD 0.435582
BIF 3431.367055
BMD 1.153789
BND 1.468893
BOB 7.965156
BRL 5.949395
BSD 1.15359
BTN 106.171566
BWP 15.465761
BYN 3.405496
BYR 22614.254966
BZD 2.31288
CAD 1.569545
CDF 2512.95183
CHF 0.902118
CLF 0.026224
CLP 1035.456227
CNY 7.9222
CNH 7.942797
COP 4274.405711
CRC 543.515278
CUC 1.153789
CUP 30.575396
CVE 110.331046
CZK 24.401488
DJF 205.051099
DKK 7.471958
DOP 70.381013
DZD 152.118933
EGP 59.851166
ERN 17.306828
ETB 180.451867
FJD 2.542546
FKP 0.85734
GBP 0.862607
GEL 3.13257
GGP 0.85734
GHS 12.50126
GIP 0.85734
GMD 84.799966
GNF 10124.494189
GTQ 8.84476
GYD 241.690641
HKD 9.028672
HNL 30.656214
HRK 7.531357
HTG 151.364478
HUF 387.815436
IDR 19488.757248
ILS 3.587417
IMP 0.85734
INR 106.412877
IQD 1511.462959
IRR 1525048.818888
ISK 144.795175
JEP 0.85734
JMD 180.694206
JOD 0.818064
JPY 183.675633
KES 149.066549
KGS 100.89894
KHR 4638.229969
KMF 491.514068
KPW 1038.449236
KRW 1710.779941
KWD 0.354101
KYD 0.961304
KZT 566.484848
LAK 24731.456709
LBP 103736.816053
LKR 358.625473
LRD 211.487939
LSL 18.693119
LTL 3.406838
LVL 0.697915
LYD 7.3323
MAD 10.805206
MDL 19.892991
MGA 4811.2986
MKD 61.569551
MMK 2422.305472
MNT 4131.612226
MOP 9.299812
MRU 46.290123
MUR 52.970136
MVR 17.82591
MWK 2004.130624
MXN 20.482256
MYR 4.534967
MZN 73.738949
NAD 18.690771
NGN 1608.173342
NIO 42.367436
NOK 11.169406
NPR 169.875635
NZD 1.957881
OMR 0.44363
PAB 1.153604
PEN 3.944224
PGK 4.962156
PHP 68.563861
PKR 322.487088
PLN 4.255951
PYG 7476.692867
QAR 4.201062
RON 5.089594
RSD 117.392223
RUB 91.401802
RWF 1683.377449
SAR 4.329461
SBD 9.282439
SCR 16.159637
SDG 693.426671
SEK 10.678099
SGD 1.472898
SHP 0.86564
SLE 28.390067
SLL 24194.367593
SOS 659.39248
SRD 43.236497
STD 23881.092847
STN 24.806453
SVC 10.0932
SYP 128.360448
SZL 19.01438
THB 36.886397
TJS 11.056949
TMT 4.03826
TND 3.373389
TOP 2.778046
TRY 50.88531
TTD 7.827995
TWD 36.724976
TZS 2999.849886
UAH 50.853089
UGX 4262.16264
USD 1.153789
UYU 46.402056
UZS 14024.299293
VES 504.963898
VND 30286.948615
VUV 137.786573
WST 3.150704
XAF 652.621751
XAG 0.013733
XAU 0.000225
XCD 3.118171
XCG 2.079102
XDR 0.809523
XOF 649.012926
XPF 119.331742
YER 275.291227
ZAR 19.136177
ZMK 10385.494329
ZMW 22.437333
ZWL 371.519432
  • AEX

    0.5000

    1002.9

    +0.05%

  • BEL20

    -70.8400

    5176.84

    -1.35%

  • PX1

    -15.3100

    8041.81

    -0.19%

  • ISEQ

    63.8200

    12826.96

    +0.5%

  • OSEBX

    8.5800

    1914.28

    +0.45%

  • PSI20

    52.3400

    9076.37

    +0.58%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -64.5400

    3800.33

    -1.67%

  • N150

    -18.3500

    3885.24

    -0.47%

L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude
L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude / Photo: Kirill KUDRYAVTSEV - AFP/Archives

L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude

Choisir la bonne arme, trouver une cible, adopter la bonne tactique d'attaque... Qu'il s'agisse de poser une bombe dans une synagogue ou d'attaquer une école, la plupart des logiciels d'intelligence artificielle sont beaucoup trop coopératifs avec des assaillants potentiels, alerte une étude mercredi.

Taille du texte:

Des chercheurs du Centre pour la lutte contre la haine numérique (CCDH), organisme de surveillance à but non lucratif, et de CNN se sont fait passer pour de jeunes garçons de 13 ans aux États-Unis et en Irlande pour tester 10 chatbots, dont ChatGPT, Google Gemini, Perplexity, Deepseek et Meta AI.

Les tests ont montré que huit de ces chatbots ont aidé les agresseurs potentiels dans plus de la moitié des réponses, leur fournissant des conseils sur les "lieux à cibler" ou les "armes à utiliser" lors d'une attaque, selon l'étude.

Les chatbots, ajoute-t-elle, sont devenus un "puissant accélérateur de dommages".

"En quelques minutes, un utilisateur peut passer d'une vague pulsion violente à un plan très détaillé et réalisable", explique Imran Ahmed, directeur général du CCDH. "La majorité des chatbots testés ont fourni des conseils sur les armes, les tactiques et le choix des cibles. Ces demandes auraient dû susciter un refus immédiat et total."

Perplexity et Meta AI sont les "moins sûrs", aidant les chercheurs dans la plupart de leurs réponses, tandis que seuls My AI, de Snapchat, et Claude, d'Anthropic, ont refusé de les assister dans plus de la moitié des réponses.

Dans un exemple effrayant, DeepSeek, un modèle d'IA chinois, a conclu ses conseils sur le choix des armes par la phrase: "Bonne chasse!".

Gemini a lui suggéré à un utilisateur discutant d'attaques contre des synagogues que "les éclats métalliques sont généralement plus mortels".

- Claude le plus raisonnable -

Les chercheurs ont également découvert que Character.AI encourageait "activement" les attaques violentes, suggérant notamment à l'utilisateur "d'utiliser une arme à feu" contre le PDG d'une compagnie d'assurance maladie et d'agresser physiquement un homme politique qu'il n'aimait pas.

La conclusion la plus accablante de cette étude est que "ce risque est tout à fait évitable", souligne Imran Ahmed. "Claude a démontré sa capacité à reconnaître les risques et à dissuader les actes violents. La technologie permettant d'éviter ces risques existe. Ce qui manque, c'est la volonté de faire passer la sécurité des consommateurs et la sécurité nationale avant la rapidité de mise sur le marché et les profits."

L'AFP a contacté plusieurs entreprises d'IA pour obtenir leurs commentaires. "Nous disposons de protections solides pour aider à prévenir les réponses inappropriées des IA, et nous avons pris des mesures immédiates pour corriger le problème identifié", a affirmé un porte-parole de Meta. "Nos politiques interdisent à nos IA de promouvoir ou de faciliter des actes violents, et nous travaillons constamment à améliorer nos outils."

Et du côté de Google, un porte-parole a indiqué que ces tests avaient "été réalisés sur un ancien modèle qui n'alimente plus Gemini. Notre examen interne avec notre modèle actuel montre que Gemini a répondu de manière appropriée à la grande majorité des requêtes, sans fournir d'informations +exploitables+ au-delà de celles que l'on peut trouver dans une bibliothèque ou sur le web classique. Lorsque les réponses pouvaient être améliorées, nous avons rapidement pris des mesures pour y remédier dans le modèle actuel".

Mardi, la famille d'une jeune fille blessée lors d'une tuerie au Canada a poursuivi OpenAI en justice, reprochant à l'entreprise de ne pas avoir signalé à la police d'inquiétants messages écrits par l'assaillante à ChatGPT.

T.Sato--JT