The Japan Times - Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement

EUR -
AED 4.308825
AFN 77.560196
ALL 96.750348
AMD 447.774021
ANG 2.100622
AOA 1075.887227
ARS 1702.991174
AUD 1.758998
AWG 2.114815
AZN 1.996838
BAM 1.954788
BBD 2.364786
BDT 143.5857
BGN 1.955483
BHD 0.442286
BIF 3473.417455
BMD 1.173268
BND 1.509425
BOB 8.130897
BRL 6.471159
BSD 1.174097
BTN 105.682764
BWP 15.416089
BYN 3.449145
BYR 22996.050514
BZD 2.361388
CAD 1.610375
CDF 2540.124725
CHF 0.931064
CLF 0.026921
CLP 1056.105059
CNY 8.208654
CNH 8.185937
COP 4423.17299
CRC 583.200704
CUC 1.173268
CUP 31.091599
CVE 110.20938
CZK 24.153952
DJF 208.513128
DKK 7.469223
DOP 74.022012
DZD 152.014643
EGP 55.974031
ERN 17.599018
ETB 182.216487
FJD 2.667192
FKP 0.870542
GBP 0.872477
GEL 3.161972
GGP 0.870542
GHS 12.328778
GIP 0.870542
GMD 86.82155
GNF 10271.728588
GTQ 9.005455
GYD 245.646029
HKD 9.132635
HNL 30.954114
HRK 7.523462
HTG 153.661142
HUF 384.503272
IDR 19586.534045
ILS 3.73907
IMP 0.870542
INR 105.578743
IQD 1538.110647
IRR 49423.909596
ISK 147.209573
JEP 0.870542
JMD 186.584246
JOD 0.831851
JPY 184.057554
KES 151.457007
KGS 102.594648
KHR 4704.585625
KMF 492.772811
KPW 1055.992617
KRW 1694.949447
KWD 0.361003
KYD 0.978498
KZT 595.314487
LAK 25381.974067
LBP 105144.188484
LKR 363.573416
LRD 208.992746
LSL 19.435609
LTL 3.464355
LVL 0.709698
LYD 6.358737
MAD 10.706497
MDL 19.760943
MGA 5389.234265
MKD 61.546758
MMK 2463.670678
MNT 4175.779889
MOP 9.414169
MRU 46.624073
MUR 54.263842
MVR 18.126492
MWK 2035.955156
MXN 21.145637
MYR 4.761149
MZN 74.983229
NAD 19.435526
NGN 1695.806104
NIO 43.207826
NOK 11.83568
NPR 169.092223
NZD 2.039521
OMR 0.45112
PAB 1.174107
PEN 3.949256
PGK 5.001433
PHP 69.080256
PKR 328.787168
PLN 4.219424
PYG 7708.044261
QAR 4.270845
RON 5.092924
RSD 117.280063
RUB 92.80511
RWF 1710.722064
SAR 4.400342
SBD 9.546683
SCR 16.211066
SDG 705.729364
SEK 10.82579
SGD 1.509597
SHP 0.880255
SLE 28.216828
SLL 24602.84518
SOS 669.856232
SRD 44.732597
STD 24284.276367
STN 24.487433
SVC 10.273728
SYP 12975.345015
SZL 19.430029
THB 36.943836
TJS 10.843135
TMT 4.11817
TND 3.423772
TOP 2.824948
TRY 50.398539
TTD 7.980904
TWD 36.822426
TZS 2898.342436
UAH 49.674507
UGX 4250.854708
USD 1.173268
UYU 45.976601
UZS 14094.766619
VES 349.3645
VND 30856.945333
VUV 141.665393
WST 3.257321
XAF 655.620538
XAG 0.016354
XAU 0.000271
XCD 3.170815
XCG 2.116114
XDR 0.815382
XOF 655.620538
XPF 119.331742
YER 279.766398
ZAR 19.441272
ZMK 10560.821707
ZMW 26.036638
ZWL 377.79178
  • AEX

    0.0000

    951.29

    0%

  • BEL20

    0.5100

    5078.43

    +0.01%

  • PX1

    -18.7900

    8149.5

    -0.23%

  • ISEQ

    -26.2500

    13099.35

    -0.2%

  • OSEBX

    11.5700

    1687.77

    +0.69%

  • PSI20

    0.0000

    8263.65

    0%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    44.9900

    4210.67

    +1.08%

  • N150

    -0.7600

    3794.14

    -0.02%

Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement
Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement / Photo: ANTHONY WALLACE - AFP

Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement

Le deuxième "sommet" mondial sur l'intelligence artificielle (IA) s'est conclu mercredi à Séoul sur un engagement collectif à encadrer les dangers de cette technologie, mais la vitesse folle avec laquelle elle se développe leur promet bien des difficultés.

Taille du texte:

Lors de cet événement organisé conjointement par la Corée du Sud et le Royaume-Uni, les leaders du secteur - du sud-coréen Samsung Electronics à l'américain Google en passant par OpenAI, le créateur de ChatGPT - ont codifié leurs engagements dans un document intitulé "Seoul AI Business Pledge" ("Engagement de Séoul des entreprises sur l'IA").

En parallèle, plus d'une douzaine de pays, dont les Etats-Unis et la France, ont convenu de travailler ensemble contre les menaces posées par l'IA de pointe notamment les "risques graves", selon un communiqué commun de ces pays.

Ces risques pourraient inclure un système d'IA aidant "les acteurs non-étatiques à faire progresser le développement, la production, l'acquisition ou l'utilisation d'armes chimiques ou biologiques", ou pouvant "échapper à la surveillance humaine, notamment par le contournement des mesures de protection, la manipulation et la tromperie, ou la réplication et l'adaptation autonomes", selon ce communiqué.

La veille, seize des plus gros acteurs du secteur avaient déjà signé un accord pour garantir la sécurité de l'IA, en s'appuyant sur le consensus atteint lors du premier "sommet" mondial sur le sujet, en 2023 à Bletchley Park (Royaume-Uni).

Ils ont notamment promis de définir les risques "jugés intolérables", et ce que les entreprises feront pour les prévenir. Les signataires se sont également engagés à "ne pas développer ou déployer un modèle ou un système" dont les risques s'avéreraient trop difficiles à maîtriser.

- Se mettre au diapason -

Mais pour les experts, il est difficile pour les régulateurs de comprendre et de gérer l'IA, vu la vitesse foudroyante avec laquelle elle se développe.

"Je pense que c'est un très, très gros problème", avertit Markus Anderljung, du Centre pour la gouvernance de l'IA, organisme de recherche basé à Oxford, au Royaume-Uni.

"L'IA sera l'un des plus grands défis que les gouvernements du monde entier auront à relever au cours des deux prochaines décennies", prophétise cet expert. "Le monde devra acquérir une sorte de compréhension commune des risques liés aux modèles généraux les plus avancés."

Pour Michelle Donelan, la secrétaire d'Etat britannique à la Science, à l'Innovation et à la Technologie, "le rythme de développement de l'IA s'accélérant, nous devons nous mettre au diapason (...) si nous voulons en maîtriser les risques".

Lors du prochain "sommet" sur l'IA, les 10 et 11 février 2025 en France, il y aura davantage d'occasions de "repousser les limites" en termes de tests et d'évaluation des nouvelles technologies, pronostique Mme Donelan.

"Simultanément, nous devons porter notre attention sur l'atténuation des risques en dehors de ces modèles, en veillant à ce que la société dans son ensemble devienne résiliente face aux dangers posés par l'IA", ajoute la secrétaire d'Etat.

Le succès fulgurant de ChatGPT peu après sa sortie en 2022 a déclenché une ruée dans le domaine de l'IA générative, les entreprises technologiques du monde entier investissant des milliards de dollars dans le développement de leurs propres modèles.

Les modèles d'IA générative peuvent produire du texte, des photos, du son et même des vidéos à partir de simples invites de commande. Leurs partisans les présentent comme une percée qui améliorera la vie des citoyens et des entreprises dans le monde entier.

Mais les défenseurs des droits humains et les gouvernements craignent aussi leur utilisation à mauvais escient dans un grand nombre de situations, notamment pour manipuler les électeurs par le biais de fausses nouvelles ou de photos et de vidéos "deepfake" de dirigeants politiques.

Beaucoup exigent que des normes internationales soient instituées pour encadrer le développement et l'utilisation de l'IA.

"De plus en plus, nous réalisons qu'une coopération mondiale est nécessaire pour vraiment réfléchir aux problèmes et aux effets néfastes de l'intelligence artificielle. L'IA ne connaît pas de frontières", estime Rumman Chowdhury, une experte en éthique de l'IA qui dirige Humane Intelligence, organisation indépendante qui évalue les modèles d'IA.

Selon elle, le danger ne vient pas seulement de l'"IA galopante" des cauchemars de science-fiction, mais aussi de l'inégalité face à cette technologie, alors que l'IA est développée par "un très, très petit nombre de personnes et d'organisations" qui en récoltent les bénéfices.

Quant aux habitants des pays en développement, comme l'Inde, "ce sont souvent ceux qui font le ménage. Ce sont les annotateurs de données, les modérateurs de contenus. Ils nettoient le sol pour que tous les autres puissent marcher sur un terrain vierge", regrette Mme Chowdhury.

S.Yamamoto--JT