The Japan Times - L'IA, un nouveau front pour la désinformation

EUR -
AED 4.300703
AFN 72.605876
ALL 95.566623
AMD 431.686089
ANG 2.096729
AOA 1075.029927
ARS 1630.117511
AUD 1.614883
AWG 2.109365
AZN 1.988627
BAM 1.955368
BBD 2.358619
BDT 143.74826
BGN 1.95557
BHD 0.441781
BIF 3484.478409
BMD 1.171056
BND 1.490258
BOB 8.092455
BRL 5.868634
BSD 1.171061
BTN 112.01631
BWP 15.775988
BYN 3.263152
BYR 22952.706036
BZD 2.35526
CAD 1.605027
CDF 2624.337433
CHF 0.915719
CLF 0.026396
CLP 1038.867345
CNY 7.952585
CNH 7.945536
COP 4441.547698
CRC 533.091398
CUC 1.171056
CUP 31.032995
CVE 110.606169
CZK 24.320618
DJF 208.120324
DKK 7.472488
DOP 69.385268
DZD 155.165902
EGP 61.953547
ERN 17.565846
ETB 184.295054
FJD 2.559754
FKP 0.865656
GBP 0.866412
GEL 3.138539
GGP 0.865656
GHS 13.23885
GIP 0.865656
GMD 85.486744
GNF 10278.948927
GTQ 8.934027
GYD 245.00218
HKD 9.172668
HNL 31.162114
HRK 7.53387
HTG 152.941455
HUF 358.000737
IDR 20520.129066
ILS 3.405083
IMP 0.865656
INR 112.186623
IQD 1534.083924
IRR 1537597.093295
ISK 143.583183
JEP 0.865656
JMD 185.203572
JOD 0.830291
JPY 184.919765
KES 151.414385
KGS 102.409104
KHR 4697.10668
KMF 493.014552
KPW 1053.970463
KRW 1745.676267
KWD 0.360908
KYD 0.975914
KZT 549.633947
LAK 25704.688693
LBP 105103.269659
LKR 380.062573
LRD 214.479028
LSL 19.217446
LTL 3.457825
LVL 0.70836
LYD 7.406952
MAD 10.742979
MDL 20.084166
MGA 4889.160537
MKD 61.640864
MMK 2458.379922
MNT 4192.000607
MOP 9.446497
MRU 46.84213
MUR 54.914491
MVR 18.046385
MWK 2039.391252
MXN 20.132923
MYR 4.602916
MZN 74.832523
NAD 19.216911
NGN 1604.218565
NIO 42.983665
NOK 10.765551
NPR 179.232782
NZD 1.971824
OMR 0.45027
PAB 1.171081
PEN 4.014969
PGK 5.105747
PHP 72.14703
PKR 326.254684
PLN 4.240337
PYG 7161.418757
QAR 4.266744
RON 5.205349
RSD 117.396039
RUB 85.753937
RWF 1709.742388
SAR 4.400914
SBD 9.406227
SCR 16.10192
SDG 703.208973
SEK 10.915294
SGD 1.490726
SHP 0.874312
SLE 28.815812
SLL 24556.470282
SOS 669.258284
SRD 43.556271
STD 24238.503756
STN 24.884949
SVC 10.246738
SYP 129.494205
SZL 19.30483
THB 37.859903
TJS 10.966959
TMT 4.110408
TND 3.373229
TOP 2.819623
TRY 53.206656
TTD 7.945381
TWD 36.90236
TZS 3046.376822
UAH 51.496291
UGX 4391.105437
USD 1.171056
UYU 46.520523
UZS 14144.019813
VES 594.972399
VND 30852.652716
VUV 138.159919
WST 3.165059
XAF 655.828994
XAG 0.013455
XAU 0.000249
XCD 3.164838
XCG 2.110516
XDR 0.813848
XOF 654.020755
XPF 119.331742
YER 279.443344
ZAR 19.221662
ZMK 10540.912462
ZMW 22.10378
ZWL 377.079693
  • AEX

    6.7700

    1016.89

    +0.67%

  • BEL20

    19.8300

    5528.51

    +0.36%

  • PX1

    54.4500

    8062.39

    +0.68%

  • ISEQ

    12.5300

    12543.97

    +0.1%

  • OSEBX

    1.5900

    1985.91

    +0.08%

  • PSI20

    35.3800

    9107.55

    +0.39%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -21.8500

    4101.58

    -0.53%

  • N150

    21.8500

    4224.28

    +0.52%

L'IA, un nouveau front pour la désinformation
L'IA, un nouveau front pour la désinformation / Photo: SEBASTIEN BOZON - AFP/Archives

L'IA, un nouveau front pour la désinformation

Des deepfakes visant à influencer des élections aux chatbots relayant des infox, la pollution du monde de l'information apparaît comme l'un des grands dangers du recours croissant à l'intelligence artificielle (IA).

Taille du texte:

Le déploiement rapide de cette technologie, au cœur d'un sommet mondial en cours à Paris, a déjà nourri ces dernières années l'essor de la désinformation, en lui offrant de nouveaux outils redoutables.

En Slovaquie, en 2023, un enregistrement avait fait grand bruit: on y entendait le chef d'un parti pro-européen y admettre que les élections législatives allaient être manipulées. Il s'agissait d'un deepfake, un contenu truqué grâce à l'IA, qui a pu influencer des électeurs.

Partout dans le monde, des responsables politiques ont déjà fait les frais de ce type de procédés, à fort potentiel de viralité sur les réseaux sociaux.

C'est le cas de l'ancien président américain Joe Biden, dont la voix a été truquée pour conseiller à des électeurs de ne pas voter. Ou encore d'Emmanuel Macron, annonçant sa démission dans une vidéo très partagée à la bande-son trafiquée.

- Deepfakes pornographiques -

Des femmes politiques aux Etats-Unis, en Italie, au Royaume-Uni ou encore au Pakistan ont aussi été victimes d'images à caractère pornographique générées par IA. Une tendance jugée inquiétante par des chercheurs.

Ces deepfakes à caractère sexuel visent aussi régulièrement des célébrités comme la chanteuse américaine Taylor Swift, et toutes les femmes y seraient aujourd'hui vulnérables, met en garde l'American Sunlight Project, un groupe de recherche sur la désinformation.

L'IA est aussi au cœur d'opérations d'ingérences numériques de grande ampleur.

Les campagnes prorusses appelées Doppelgänger ou Matriochka figurent parmi les exemples les plus retentissants: leurs auteurs ont eu largement recours à des profils inauthentiques, des bots, pour publier des contenus générés par IA, visant notamment à saper le soutien occidental à l'Ukraine.

"Ce qui est nouveau, c'est l'échelle et la facilité avec laquelle une personne avec très peu de ressources financières et de temps peut diffuser des contenus faux qui, par ailleurs, paraissent de plus en plus crédibles et sont de plus en plus difficiles à détecter", détaille Chine Labbé, rédactrice en chef de l'organisation Newsguard qui analyse la fiabilité des sites et contenus en ligne.

- "Pollution du web" -

Aucun domaine n'échappe à ces contenus factices: de faux clips musicaux sont souvent mis en circulation, tout comme de fausses photos d'événements historiques fabriquées en quelques clics.

Sur Facebook, des comptes multiplient les images attendrissantes générées par IA pour obtenir de l'engagement. La finalité n'est pas forcément de faire circuler une fausse information, mais plutôt de capter l'attention à des fins mercantiles, voire de préparer des arnaques une fois des utilisateurs crédules identifiés.

Autre cas de figure: en 2024, des deepfakes de médecins connus, comme Michel Cymes en France, ont été diffusés pour faire la promotion de remèdes qu'ils n'avaient pourtant jamais soutenus.

Fin décembre, alors que l'histoire d'un homme qui a mis le feu à une femme dans le métro new-yorkais faisait la Une de l'actualité aux Etats-Unis, une prétendue photo de la victime a largement circulé. Elle avait été générée par IA, et le drame instrumentalisé, dans le but de renvoyer vers des sites de cryptomonnaies.

"Au-delà du risque de désinformation, il y a celui de pollution du web: on ne sait jamais si on est face à un contenu qui a été vérifié, édité par un être humain rigoureux, ou si c'est généré par une IA sans que qui que ce soit se préoccupe de la véracité", observe Chine Labbé.

Chaque événement au cœur de l'actualité suscite ainsi un flot d'images créées en ligne, comme les incendies d'ampleur à Los Angeles début 2025 pendant lesquels des fausses photos du signe "Hollywood" en flammes ou d'un Oscar dans les cendres ont fait le tour du monde.

Les chatbots en vogue, tels que l'américain ChatGPT, peuvent eux aussi contribuer à diffuser des infox, souligne Chine Labbé de Newsguard: "ils ont tendance à d'abord citer des sources générées par IA, donc c'est le serpent qui se mord la queue".

L'arrivée du chinois DeepSeek, qui relaie les positions officielles chinoises dans une partie de ses réponses, ne fait que renforcer la nécessité d'imposer des cadres à ces outils, plaide l'experte. Il faudrait leur "apprendre à reconnaître les sources fiables des sources de propagande".

K.Yamaguchi--JT