The Japan Times - Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement

EUR -
AED 4.304621
AFN 75.593204
ALL 96.003761
AMD 440.324149
AOA 1074.646617
ARS 1606.368482
AUD 1.657495
AWG 2.109447
AZN 1.996908
BAM 1.956142
BBD 2.359513
BDT 143.925194
BHD 0.441989
BIF 3480.587976
BMD 1.171915
BND 1.492761
BOB 8.09445
BRL 5.889113
BSD 1.171505
BTN 108.66504
BWP 15.725874
BYN 3.362389
BYR 22969.536814
BZD 2.355831
CAD 1.621181
CDF 2695.405254
CHF 0.925373
CLF 0.026616
CLP 1047.46234
CNY 8.001884
CNH 8.000478
COP 4275.75584
CRC 542.194911
CUC 1.171915
CUP 31.055751
CVE 110.775326
CZK 24.372613
DJF 208.27322
DKK 7.472055
DOP 70.754424
DZD 154.951069
EGP 62.213581
ERN 17.578727
ETB 183.463775
FJD 2.590523
FKP 0.871837
GBP 0.871008
GEL 3.152909
GGP 0.871837
GHS 12.914962
GIP 0.871837
GMD 86.140276
GNF 10286.489683
GTQ 8.961569
GYD 245.063622
HKD 9.178574
HNL 31.208555
HRK 7.531669
HTG 153.606889
HUF 374.749212
IDR 20033.537805
ILS 3.555837
IMP 0.871837
INR 109.093757
IQD 1535.208838
IRR 1542386.818778
ISK 143.2125
JEP 0.871837
JMD 185.222423
JOD 0.830934
JPY 186.731833
KES 151.353291
KGS 102.48443
KHR 4705.239712
KMF 492.204771
KPW 1054.739324
KRW 1740.650003
KWD 0.361775
KYD 0.976154
KZT 553.54077
LAK 25735.256962
LBP 104945.001518
LKR 369.714719
LRD 215.87119
LSL 19.266732
LTL 3.460361
LVL 0.70888
LYD 7.447567
MAD 10.903217
MDL 20.182122
MGA 4863.448252
MKD 61.632904
MMK 2461.60714
MNT 4213.429261
MOP 9.449525
MRU 46.870792
MUR 54.498438
MVR 18.118251
MWK 2035.035026
MXN 20.295989
MYR 4.646689
MZN 74.956135
NAD 19.266727
NGN 1593.078449
NIO 43.033165
NOK 11.157457
NPR 173.863665
NZD 2.007995
OMR 0.450597
PAB 1.171365
PEN 3.970494
PGK 5.05242
PHP 70.252842
PKR 326.906168
PLN 4.248719
PYG 7576.326235
QAR 4.272848
RON 5.09139
RSD 117.359143
RUB 90.323845
RWF 1711.582067
SAR 4.397751
SBD 9.432256
SCR 17.356499
SDG 704.321399
SEK 10.883815
SGD 1.492815
SLE 28.83341
SOS 669.753796
SRD 43.887095
STD 24256.277385
STN 24.903197
SVC 10.250794
SYP 129.553024
SZL 19.26047
THB 37.607189
TJS 11.133719
TMT 4.107563
TND 3.383363
TRY 52.326442
TTD 7.950392
TWD 37.220455
TZS 3052.839342
UAH 50.89841
UGX 4334.758799
USD 1.171915
UYU 47.268274
UZS 14256.348113
VES 557.641528
VND 30863.557222
VUV 139.704569
WST 3.216858
XAF 655.993465
XAG 0.015418
XAU 0.000247
XCD 3.16716
XCG 2.11137
XDR 0.818128
XOF 658.034564
XPF 119.331742
YER 279.560659
ZAR 19.28422
ZMK 10548.646791
ZMW 22.285239
ZWL 377.356198
  • AEX

    5.1300

    1010.25

    +0.51%

  • BEL20

    38.4600

    5455.59

    +0.71%

  • PX1

    14.0200

    8259.6

    +0.17%

  • ISEQ

    103.7600

    12757.71

    +0.82%

  • OSEBX

    -17.1000

    2043.61

    -0.83%

  • PSI20

    -26.5600

    9458.2

    -0.28%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    39.3100

    4009.64

    +0.99%

  • N150

    6.1000

    4073.1

    +0.15%

Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement
Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement / Photo: ANTHONY WALLACE - AFP

Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement

Le deuxième "sommet" mondial sur l'intelligence artificielle (IA) s'est conclu mercredi à Séoul sur un engagement collectif à encadrer les dangers de cette technologie, mais la vitesse folle avec laquelle elle se développe leur promet bien des difficultés.

Taille du texte:

Lors de cet événement organisé conjointement par la Corée du Sud et le Royaume-Uni, les leaders du secteur - du sud-coréen Samsung Electronics à l'américain Google en passant par OpenAI, le créateur de ChatGPT - ont codifié leurs engagements dans un document intitulé "Seoul AI Business Pledge" ("Engagement de Séoul des entreprises sur l'IA").

En parallèle, plus d'une douzaine de pays, dont les Etats-Unis et la France, ont convenu de travailler ensemble contre les menaces posées par l'IA de pointe notamment les "risques graves", selon un communiqué commun de ces pays.

Ces risques pourraient inclure un système d'IA aidant "les acteurs non-étatiques à faire progresser le développement, la production, l'acquisition ou l'utilisation d'armes chimiques ou biologiques", ou pouvant "échapper à la surveillance humaine, notamment par le contournement des mesures de protection, la manipulation et la tromperie, ou la réplication et l'adaptation autonomes", selon ce communiqué.

La veille, seize des plus gros acteurs du secteur avaient déjà signé un accord pour garantir la sécurité de l'IA, en s'appuyant sur le consensus atteint lors du premier "sommet" mondial sur le sujet, en 2023 à Bletchley Park (Royaume-Uni).

Ils ont notamment promis de définir les risques "jugés intolérables", et ce que les entreprises feront pour les prévenir. Les signataires se sont également engagés à "ne pas développer ou déployer un modèle ou un système" dont les risques s'avéreraient trop difficiles à maîtriser.

- Se mettre au diapason -

Mais pour les experts, il est difficile pour les régulateurs de comprendre et de gérer l'IA, vu la vitesse foudroyante avec laquelle elle se développe.

"Je pense que c'est un très, très gros problème", avertit Markus Anderljung, du Centre pour la gouvernance de l'IA, organisme de recherche basé à Oxford, au Royaume-Uni.

"L'IA sera l'un des plus grands défis que les gouvernements du monde entier auront à relever au cours des deux prochaines décennies", prophétise cet expert. "Le monde devra acquérir une sorte de compréhension commune des risques liés aux modèles généraux les plus avancés."

Pour Michelle Donelan, la secrétaire d'Etat britannique à la Science, à l'Innovation et à la Technologie, "le rythme de développement de l'IA s'accélérant, nous devons nous mettre au diapason (...) si nous voulons en maîtriser les risques".

Lors du prochain "sommet" sur l'IA, les 10 et 11 février 2025 en France, il y aura davantage d'occasions de "repousser les limites" en termes de tests et d'évaluation des nouvelles technologies, pronostique Mme Donelan.

"Simultanément, nous devons porter notre attention sur l'atténuation des risques en dehors de ces modèles, en veillant à ce que la société dans son ensemble devienne résiliente face aux dangers posés par l'IA", ajoute la secrétaire d'Etat.

Le succès fulgurant de ChatGPT peu après sa sortie en 2022 a déclenché une ruée dans le domaine de l'IA générative, les entreprises technologiques du monde entier investissant des milliards de dollars dans le développement de leurs propres modèles.

Les modèles d'IA générative peuvent produire du texte, des photos, du son et même des vidéos à partir de simples invites de commande. Leurs partisans les présentent comme une percée qui améliorera la vie des citoyens et des entreprises dans le monde entier.

Mais les défenseurs des droits humains et les gouvernements craignent aussi leur utilisation à mauvais escient dans un grand nombre de situations, notamment pour manipuler les électeurs par le biais de fausses nouvelles ou de photos et de vidéos "deepfake" de dirigeants politiques.

Beaucoup exigent que des normes internationales soient instituées pour encadrer le développement et l'utilisation de l'IA.

"De plus en plus, nous réalisons qu'une coopération mondiale est nécessaire pour vraiment réfléchir aux problèmes et aux effets néfastes de l'intelligence artificielle. L'IA ne connaît pas de frontières", estime Rumman Chowdhury, une experte en éthique de l'IA qui dirige Humane Intelligence, organisation indépendante qui évalue les modèles d'IA.

Selon elle, le danger ne vient pas seulement de l'"IA galopante" des cauchemars de science-fiction, mais aussi de l'inégalité face à cette technologie, alors que l'IA est développée par "un très, très petit nombre de personnes et d'organisations" qui en récoltent les bénéfices.

Quant aux habitants des pays en développement, comme l'Inde, "ce sont souvent ceux qui font le ménage. Ce sont les annotateurs de données, les modérateurs de contenus. Ils nettoient le sol pour que tous les autres puissent marcher sur un terrain vierge", regrette Mme Chowdhury.

S.Yamamoto--JT