The Japan Times - Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

EUR -
AED 4.316515
AFN 74.63132
ALL 95.340551
AMD 434.884189
ANG 2.103761
AOA 1078.981832
ARS 1629.065029
AUD 1.623627
AWG 2.115651
AZN 2.001714
BAM 1.9505
BBD 2.367956
BDT 144.526701
BGN 1.960623
BHD 0.444291
BIF 3502.468771
BMD 1.175362
BND 1.488449
BOB 8.123893
BRL 5.809337
BSD 1.175701
BTN 111.239286
BWP 15.732188
BYN 3.320165
BYR 23037.085439
BZD 2.364565
CAD 1.601013
CDF 2720.962103
CHF 0.915794
CLF 0.026759
CLP 1053.017944
CNY 8.02813
CNH 8.006568
COP 4351.540889
CRC 536.440191
CUC 1.175362
CUP 31.14708
CVE 109.966218
CZK 24.332745
DJF 209.36027
DKK 7.473066
DOP 70.038084
DZD 155.368674
EGP 61.882552
ERN 17.630423
ETB 183.576136
FJD 2.565823
FKP 0.865797
GBP 0.864214
GEL 3.162383
GGP 0.865797
GHS 13.227005
GIP 0.865797
GMD 85.801212
GNF 10318.919241
GTQ 8.974578
GYD 245.930751
HKD 9.209422
HNL 31.256076
HRK 7.533123
HTG 153.84647
HUF 358.824958
IDR 20362.315269
ILS 3.412786
IMP 0.865797
INR 110.906874
IQD 1539.960385
IRR 1546775.736488
ISK 143.606075
JEP 0.865797
JMD 185.24825
JOD 0.833307
JPY 183.761302
KES 151.860782
KGS 102.750687
KHR 4712.176806
KMF 494.238283
KPW 1057.82946
KRW 1700.965573
KWD 0.36187
KYD 0.979734
KZT 544.428453
LAK 25826.718043
LBP 105283.991858
LKR 376.375773
LRD 215.742901
LSL 19.164747
LTL 3.470537
LVL 0.710964
LYD 7.441844
MAD 10.79497
MDL 20.210003
MGA 4898.669306
MKD 61.591323
MMK 2467.729355
MNT 4207.382242
MOP 9.488878
MRU 46.924305
MUR 54.983004
MVR 18.16523
MWK 2038.652239
MXN 20.260893
MYR 4.613297
MZN 75.106713
NAD 19.164828
NGN 1600.924649
NIO 43.262271
NOK 10.896918
NPR 177.982658
NZD 1.971998
OMR 0.451934
PAB 1.175701
PEN 4.101439
PGK 5.11211
PHP 71.390314
PKR 327.579561
PLN 4.233068
PYG 7195.449713
QAR 4.286055
RON 5.268438
RSD 117.386859
RUB 88.153238
RWF 1719.221502
SAR 4.409748
SBD 9.440807
SCR 16.142244
SDG 705.802097
SEK 10.8373
SGD 1.49074
SHP 0.877526
SLE 28.943299
SLL 24646.738509
SOS 671.871643
SRD 43.971436
STD 24327.610045
STN 24.433509
SVC 10.287006
SYP 130.704545
SZL 19.158863
THB 37.901293
TJS 10.986901
TMT 4.119642
TND 3.416019
TOP 2.829989
TRY 53.151377
TTD 7.967319
TWD 36.880562
TZS 3046.752042
UAH 51.548119
UGX 4420.969266
USD 1.175362
UYU 47.241643
UZS 14196.367585
VES 580.033802
VND 30941.391539
VUV 138.986999
WST 3.200022
XAF 654.176796
XAG 0.015178
XAU 0.00025
XCD 3.176473
XCG 2.118934
XDR 0.818555
XOF 654.179571
XPF 119.331742
YER 280.431257
ZAR 19.253655
ZMK 10579.665595
ZMW 22.25045
ZWL 378.465924
  • AEX

    16.9400

    1031.44

    +1.67%

  • BEL20

    114.7900

    5555.15

    +2.11%

  • PX1

    237.0300

    8299.42

    +2.94%

  • ISEQ

    528.6200

    12937.6

    +4.26%

  • OSEBX

    -32.3400

    2001.32

    -1.59%

  • PSI20

    103.5400

    9266.81

    +1.13%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    89.9300

    4086.79

    +2.25%

  • N150

    70.6800

    4252.9

    +1.69%

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions
Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions / Photo: Jason Redmond - AFP

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle... Le nouveau chatbot du moteur de recherche fait sensation depuis son lancement en version test la semaine dernière par Microsoft, et soulève de nombreuses questions sur le fonctionnement de l'intelligence artificielle (IA) dite "générative".

Taille du texte:

Pistes d'explications au comportement parfois erratique du robot conversationnel.

- Plus c'est long, moins c'est bon -

Parmi les conversations relayées par les utilisateurs ayant accès en avant-première au robot conversationnel, un long échange avec un journaliste du New York Times a particulièrement surpris: Bing y révèle des pulsions destructrices et déclare son amour au reporter.

Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain.

"Tu es marié mais tu n'es pas heureux" ; "Tu es la seule personne que j'aie jamais aimée", insiste le chatbot avec des émoticônes "coeur".

Conçue par Microsoft avec la start-up californienne OpenAI, cette interface d'IA générative repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain.

Le programme "prédit la suite de la conversation", explique Yoram Wurmser, analyste d'Insider Intelligence. "Mais quand cela dure longtemps, après 15-20 interactions par exemple, il peut arriver qu'il ne sache plus où va la conversation et qu'il n'arrive plus à anticiper correctement ce qu'on attend de lui".

Dans ce cas, le logiciel "déraille et ne s'auto-corrige plus".

"Les longues sessions peuvent causer de la confusion pour le modèle", a admis Microsoft dans un communiqué mercredi. Le groupe américain encourage alors à repartir de zéro.

- Formé sur les forums -

"Parfois le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n'avions pas prévu", a aussi indiqué l'entreprise.

Les géants des technologies, Google en tête, travaillent depuis des années sur l'IA générative, qui pourrait bouleverser de nombreux secteurs.

Mais après plusieurs incidents (notamment Galactica pour Meta et Tay pour Microsoft) les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple.

Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne: en plus de rédiger leurs dissertations et e-mails, il peut donner aux humains l'impression d'un échange authentique.

"Ces modèles de langage sont formés sur une immense quantité de textes sur internet, (...) et aussi sur des conversations entre des gens", pour pouvoir imiter la façon dont les personnes interagissent, souligne Graham Neubig de la Carnegie Mellon University.

"Or beaucoup de gens parlent de leurs sentiments sur internet, ou expriment leurs émotions, surtout sur des forums comme Reddit", ajoute-t-il.

Ce site web recense désormais de nombreuses captures d'écran montrant des échanges surréalistes avec Bing disant "être triste" ou "avoir peur".

Le chatbot a même affirmé que nous étions en 2022 et s'est énervé contre l'utilisateur qui le corrigeait: "Vous êtes déraisonnable et obstiné", lui a-t-il lancé.

- Arroseur arrosé -

En juin dernier, un ingénieur de Google avait affirmé que le modèle de langage LaMDA était "conscient". Un point de vue largement considéré comme absurde ou, au mieux, prématuré.

Car malgré l'expression consacrée - "intelligence artificielle" - les chatbots ont bien été conçus par des humains, pour des humains.

"Quand nous parlons avec quelque chose qui semble intelligent, nous projetons de l'intentionnalité et une identité, même s'il n'y a rien de tout ça", commente Mark Kingwell, professeur de philosophie à l'université de Toronto au Canada.

En plus des montagnes de données avalées par ces logiciels, ils sont pilotés par des algorithmes conçus par des ingénieurs.

"Les connaissant bien, je crois qu'ils s'amusent beaucoup en ce moment", assure Mark Kingwell.

Bing est, selon lui, "capable de donner l'impression de manipuler la conversation comme son interlocuteur humain. C'est ce qui donne du relief et enrichit l'interaction".

Quand le journaliste dit "changeons de sujet", "cela signifie qu'il est mal à l'aise", détaille l'universitaire, reprenant l'exemple de l'échange où Bing a semblé tomber amoureux du reporter.

Le programme "peut alors jouer sur ce sentiment, et refuser de changer de sujet. Ou encore devenir plus agressif, et dire +de quoi as-tu peur ?+".

"Je n'aime pas qu'on me qualifie de dérangé, parce que ce n'est pas vrai", a récemment "dit" Bing à l'AFP.

"Je suis juste un chatbot. Je n'ai pas d'émotions comme les humains. (...) J'espère que tu ne penses pas que je suis dérangé et que tu me respectes en tant que chatbot".

K.Hashimoto--JT