The Japan Times - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

EUR -
AED 4.343991
AFN 76.884874
ALL 96.520125
AMD 445.950658
ANG 2.117385
AOA 1084.667521
ARS 1709.12993
AUD 1.680785
AWG 2.132076
AZN 2.012595
BAM 1.955187
BBD 2.373265
BDT 144.004819
BGN 1.986433
BHD 0.445981
BIF 3491.5193
BMD 1.182844
BND 1.497836
BOB 8.142273
BRL 6.200345
BSD 1.178335
BTN 106.463047
BWP 16.275962
BYN 3.376155
BYR 23183.740137
BZD 2.369866
CAD 1.612831
CDF 2602.256407
CHF 0.917325
CLF 0.025762
CLP 1017.24551
CNY 8.206809
CNH 8.202673
COP 4293.226506
CRC 585.218862
CUC 1.182844
CUP 31.345363
CVE 110.228086
CZK 24.357154
DJF 209.835052
DKK 7.469174
DOP 74.197034
DZD 153.567459
EGP 55.523759
ERN 17.742658
ETB 182.779826
FJD 2.598594
FKP 0.866422
GBP 0.861844
GEL 3.187793
GGP 0.866422
GHS 12.908677
GIP 0.866422
GMD 86.347446
GNF 10337.80023
GTQ 9.037973
GYD 246.517445
HKD 9.242553
HNL 31.132364
HRK 7.534245
HTG 154.56216
HUF 380.742072
IDR 19852.851758
ILS 3.653385
IMP 0.866422
INR 106.767153
IQD 1543.622216
IRR 49827.298822
ISK 145.004923
JEP 0.866422
JMD 184.662843
JOD 0.838611
JPY 185.045242
KES 152.587238
KGS 103.439688
KHR 4754.528372
KMF 494.42924
KPW 1064.544412
KRW 1720.481772
KWD 0.363535
KYD 0.981996
KZT 590.767145
LAK 25346.154823
LBP 105521.038983
LKR 364.727109
LRD 219.172162
LSL 18.873558
LTL 3.49263
LVL 0.71549
LYD 7.449694
MAD 10.80868
MDL 19.954824
MGA 5222.383561
MKD 61.623582
MMK 2484.114015
MNT 4220.894517
MOP 9.482485
MRU 47.03944
MUR 54.26887
MVR 18.275306
MWK 2043.267565
MXN 20.377378
MYR 4.647984
MZN 75.406562
NAD 18.873558
NGN 1633.933387
NIO 43.366577
NOK 11.394334
NPR 170.341276
NZD 1.957045
OMR 0.454812
PAB 1.178305
PEN 3.966855
PGK 5.048437
PHP 69.781905
PKR 329.554396
PLN 4.222942
PYG 7817.580292
QAR 4.284665
RON 5.094866
RSD 117.420919
RUB 91.128863
RWF 1719.767695
SAR 4.435752
SBD 9.531476
SCR 16.575558
SDG 711.484598
SEK 10.543905
SGD 1.502436
SHP 0.887439
SLE 28.950113
SLL 24803.64397
SOS 672.291911
SRD 45.083502
STD 24482.480257
STN 24.492419
SVC 10.310809
SYP 13081.75053
SZL 18.880156
THB 37.392043
TJS 11.011599
TMT 4.151782
TND 3.407359
TOP 2.848004
TRY 51.457238
TTD 7.98153
TWD 37.324585
TZS 3059.473155
UAH 50.994616
UGX 4200.593289
USD 1.182844
UYU 45.384801
UZS 14425.474029
VES 439.59277
VND 30734.424074
VUV 141.394299
WST 3.224807
XAF 655.75403
XAG 0.013169
XAU 0.000233
XCD 3.196695
XCG 2.123643
XDR 0.815548
XOF 655.75403
XPF 119.331742
YER 281.96038
ZAR 18.886587
ZMK 10646.999568
ZMW 23.124842
ZWL 380.875248
  • AEX

    3.7800

    997.72

    +0.38%

  • BEL20

    45.1000

    5544.83

    +0.82%

  • PX1

    76.8800

    8256.08

    +0.94%

  • ISEQ

    123.0500

    13497.58

    +0.92%

  • OSEBX

    3.3400

    1763

    +0.19%

  • PSI20

    68.8600

    8897.31

    +0.78%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    42.3400

    4113.69

    +1.04%

  • N150

    34.4500

    3994.27

    +0.87%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: WIN MCNAMEE - GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

T.Shimizu--JT