The Japan Times - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

EUR -
AED 4.317045
AFN 75.232464
ALL 95.657027
AMD 434.937004
ANG 2.10402
AOA 1079.113872
ARS 1631.322155
AUD 1.623414
AWG 2.11738
AZN 1.998814
BAM 1.95074
BBD 2.375816
BDT 144.544444
BGN 1.960864
BHD 0.445766
BIF 3514.09497
BMD 1.175506
BND 1.49339
BOB 8.12489
BRL 5.806528
BSD 1.179603
BTN 111.252942
BWP 15.78441
BYN 3.320572
BYR 23039.91352
BZD 2.372414
CAD 1.602991
CDF 2722.471158
CHF 0.915402
CLF 0.026782
CLP 1054.063836
CNY 8.006664
CNH 7.99853
COP 4380.88674
CRC 538.220867
CUC 1.175506
CUP 31.150903
CVE 110.438716
CZK 24.331792
DJF 210.055227
DKK 7.472655
DOP 70.281899
DZD 155.388053
EGP 61.950805
ERN 17.632587
ETB 184.186288
FJD 2.567246
FKP 0.865904
GBP 0.864173
GEL 3.150186
GGP 0.865904
GHS 13.224607
GIP 0.865904
GMD 86.401505
GNF 10353.172167
GTQ 8.975679
GYD 245.960942
HKD 9.205909
HNL 31.359829
HRK 7.534402
HTG 154.382037
HUF 358.292404
IDR 20410.130738
ILS 3.413204
IMP 0.865904
INR 111.188386
IQD 1539.912587
IRR 1543439.104774
ISK 143.811269
JEP 0.865904
JMD 185.860803
JOD 0.83341
JPY 183.761532
KES 151.852359
KGS 102.763301
KHR 4727.818546
KMF 492.536541
KPW 1057.959322
KRW 1705.717776
KWD 0.361974
KYD 0.979854
KZT 544.495288
LAK 25825.862032
LBP 105240.670453
LKR 376.421978
LRD 215.793445
LSL 19.436959
LTL 3.470963
LVL 0.711051
LYD 7.466451
MAD 10.812889
MDL 20.212484
MGA 4914.930094
MKD 61.647401
MMK 2468.032299
MNT 4207.89875
MOP 9.490043
MRU 47.080067
MUR 54.990178
MVR 18.167414
MWK 2045.419401
MXN 20.265661
MYR 4.597994
MZN 75.126645
NAD 19.436988
NGN 1599.310676
NIO 43.405877
NOK 10.931851
NPR 178.574219
NZD 1.972405
OMR 0.451905
PAB 1.175845
PEN 4.070188
PGK 5.12908
PHP 71.435206
PKR 328.682326
PLN 4.231251
PYG 7219.303874
QAR 4.283585
RON 5.266503
RSD 117.384835
RUB 87.866818
RWF 1724.928337
SAR 4.417813
SBD 9.426889
SCR 16.389771
SDG 705.897818
SEK 10.859946
SGD 1.489648
SHP 0.877634
SLE 28.976371
SLL 24649.764195
SOS 674.101874
SRD 43.976808
STD 24330.596554
STN 24.514719
SVC 10.288269
SYP 130.72059
SZL 19.22336
THB 37.971775
TJS 10.98825
TMT 4.120148
TND 3.376635
TOP 2.830336
TRY 53.173057
TTD 7.968297
TWD 36.847995
TZS 3047.126127
UAH 51.718132
UGX 4421.511994
USD 1.175506
UYU 47.247442
UZS 14194.232226
VES 580.107918
VND 30928.732889
VUV 139.004061
WST 3.200415
XAF 656.34829
XAG 0.015092
XAU 0.00025
XCD 3.176863
XCG 2.119194
XDR 0.816287
XOF 656.34829
XPF 119.331742
YER 280.505047
ZAR 19.248143
ZMK 10580.986328
ZMW 22.324309
ZWL 378.512385
  • AEX

    16.9400

    1031.44

    +1.67%

  • BEL20

    114.7900

    5555.15

    +2.11%

  • PX1

    237.0300

    8299.42

    +2.94%

  • ISEQ

    528.6200

    12937.6

    +4.26%

  • OSEBX

    -32.3400

    2001.32

    -1.59%

  • PSI20

    103.5400

    9266.81

    +1.13%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    89.9300

    4086.79

    +2.25%

  • N150

    70.6800

    4252.9

    +1.69%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: WIN MCNAMEE - GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

T.Shimizu--JT