The Japan Times - L'IA, un nouveau front pour la désinformation

EUR -
AED 4.263198
AFN 72.531026
ALL 96.220173
AMD 437.931835
ANG 2.077639
AOA 1064.304837
ARS 1621.87816
AUD 1.660175
AWG 2.09176
AZN 1.97743
BAM 1.959131
BBD 2.338175
BDT 142.452185
BGN 1.983889
BHD 0.438152
BIF 3444.1939
BMD 1.160638
BND 1.485438
BOB 8.039703
BRL 6.045376
BSD 1.160874
BTN 108.778748
BWP 15.907524
BYN 3.436873
BYR 22748.508994
BZD 2.33487
CAD 1.597445
CDF 2643.344558
CHF 0.914821
CLF 0.026959
CLP 1064.490476
CNY 7.999925
CNH 8.001114
COP 4301.603774
CRC 540.924292
CUC 1.160638
CUP 30.756913
CVE 110.695862
CZK 24.438224
DJF 206.268765
DKK 7.471377
DOP 69.638142
DZD 153.666139
EGP 61.019159
ERN 17.409573
ETB 182.811513
FJD 2.60012
FKP 0.867055
GBP 0.865661
GEL 3.139475
GGP 0.867055
GHS 12.691561
GIP 0.867055
GMD 85.30905
GNF 10187.49885
GTQ 8.890114
GYD 242.969355
HKD 9.083213
HNL 30.780612
HRK 7.535791
HTG 152.220103
HUF 389.860117
IDR 19601.496509
ILS 3.627401
IMP 0.867055
INR 109.162492
IQD 1520.43606
IRR 1523946.990904
ISK 143.814898
JEP 0.867055
JMD 183.201463
JOD 0.82291
JPY 184.1979
KES 150.543065
KGS 101.496074
KHR 4654.15975
KMF 494.43162
KPW 1044.540905
KRW 1737.197102
KWD 0.355713
KYD 0.967474
KZT 560.432798
LAK 25040.769554
LBP 103935.151939
LKR 364.913538
LRD 213.15154
LSL 19.788966
LTL 3.427062
LVL 0.702059
LYD 7.393614
MAD 10.824155
MDL 20.305133
MGA 4828.255206
MKD 61.635702
MMK 2436.909591
MNT 4142.284564
MOP 9.35605
MRU 46.576094
MUR 55.565565
MVR 17.943686
MWK 2014.867976
MXN 20.597672
MYR 4.592067
MZN 74.175924
NAD 19.789291
NGN 1601.355551
NIO 42.618386
NOK 11.252794
NPR 174.041891
NZD 1.988602
OMR 0.446203
PAB 1.160874
PEN 4.014066
PGK 5.004094
PHP 69.556886
PKR 323.905149
PLN 4.271073
PYG 7574.878135
QAR 4.229948
RON 5.095548
RSD 117.432248
RUB 93.426389
RWF 1693.371154
SAR 4.356191
SBD 9.333823
SCR 17.283346
SDG 697.543496
SEK 10.799393
SGD 1.483299
SHP 0.870779
SLE 28.554127
SLL 24338.015592
SOS 663.300571
SRD 43.338063
STD 24022.86771
STN 25.040769
SVC 10.15827
SYP 128.804781
SZL 19.789055
THB 37.778769
TJS 11.139326
TMT 4.07384
TND 3.368215
TOP 2.794538
TRY 51.471058
TTD 7.887478
TWD 37.042347
TZS 2982.840655
UAH 50.985601
UGX 4347.391048
USD 1.160638
UYU 47.310433
UZS 14165.58915
VES 532.591528
VND 30590.941406
VUV 138.647784
WST 3.190449
XAF 657.076934
XAG 0.01627
XAU 0.000259
XCD 3.136683
XCG 2.092275
XDR 0.817274
XOF 655.181999
XPF 119.331742
YER 276.967542
ZAR 19.687882
ZMK 10447.137932
ZMW 21.970352
ZWL 373.725031
  • AEX

    7.5400

    974.22

    +0.78%

  • BEL20

    4.9400

    4944.99

    +0.1%

  • PX1

    17.7700

    7743.92

    +0.23%

  • ISEQ

    7.2500

    12096.67

    +0.06%

  • OSEBX

    7.4100

    1956.18

    +0.38%

  • PSI20

    103.5900

    8881.98

    +1.18%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -57.9900

    3544.03

    -1.61%

  • N150

    22.5600

    3782.5

    +0.6%

L'IA, un nouveau front pour la désinformation
L'IA, un nouveau front pour la désinformation / Photo: SEBASTIEN BOZON - AFP/Archives

L'IA, un nouveau front pour la désinformation

Des deepfakes visant à influencer des élections aux chatbots relayant des infox, la pollution du monde de l'information apparaît comme l'un des grands dangers du recours croissant à l'intelligence artificielle (IA).

Taille du texte:

Le déploiement rapide de cette technologie, au cœur d'un sommet mondial en cours à Paris, a déjà nourri ces dernières années l'essor de la désinformation, en lui offrant de nouveaux outils redoutables.

En Slovaquie, en 2023, un enregistrement avait fait grand bruit: on y entendait le chef d'un parti pro-européen y admettre que les élections législatives allaient être manipulées. Il s'agissait d'un deepfake, un contenu truqué grâce à l'IA, qui a pu influencer des électeurs.

Partout dans le monde, des responsables politiques ont déjà fait les frais de ce type de procédés, à fort potentiel de viralité sur les réseaux sociaux.

C'est le cas de l'ancien président américain Joe Biden, dont la voix a été truquée pour conseiller à des électeurs de ne pas voter. Ou encore d'Emmanuel Macron, annonçant sa démission dans une vidéo très partagée à la bande-son trafiquée.

- Deepfakes pornographiques -

Des femmes politiques aux Etats-Unis, en Italie, au Royaume-Uni ou encore au Pakistan ont aussi été victimes d'images à caractère pornographique générées par IA. Une tendance jugée inquiétante par des chercheurs.

Ces deepfakes à caractère sexuel visent aussi régulièrement des célébrités comme la chanteuse américaine Taylor Swift, et toutes les femmes y seraient aujourd'hui vulnérables, met en garde l'American Sunlight Project, un groupe de recherche sur la désinformation.

L'IA est aussi au cœur d'opérations d'ingérences numériques de grande ampleur.

Les campagnes prorusses appelées Doppelgänger ou Matriochka figurent parmi les exemples les plus retentissants: leurs auteurs ont eu largement recours à des profils inauthentiques, des bots, pour publier des contenus générés par IA, visant notamment à saper le soutien occidental à l'Ukraine.

"Ce qui est nouveau, c'est l'échelle et la facilité avec laquelle une personne avec très peu de ressources financières et de temps peut diffuser des contenus faux qui, par ailleurs, paraissent de plus en plus crédibles et sont de plus en plus difficiles à détecter", détaille Chine Labbé, rédactrice en chef de l'organisation Newsguard qui analyse la fiabilité des sites et contenus en ligne.

- "Pollution du web" -

Aucun domaine n'échappe à ces contenus factices: de faux clips musicaux sont souvent mis en circulation, tout comme de fausses photos d'événements historiques fabriquées en quelques clics.

Sur Facebook, des comptes multiplient les images attendrissantes générées par IA pour obtenir de l'engagement. La finalité n'est pas forcément de faire circuler une fausse information, mais plutôt de capter l'attention à des fins mercantiles, voire de préparer des arnaques une fois des utilisateurs crédules identifiés.

Autre cas de figure: en 2024, des deepfakes de médecins connus, comme Michel Cymes en France, ont été diffusés pour faire la promotion de remèdes qu'ils n'avaient pourtant jamais soutenus.

Fin décembre, alors que l'histoire d'un homme qui a mis le feu à une femme dans le métro new-yorkais faisait la Une de l'actualité aux Etats-Unis, une prétendue photo de la victime a largement circulé. Elle avait été générée par IA, et le drame instrumentalisé, dans le but de renvoyer vers des sites de cryptomonnaies.

"Au-delà du risque de désinformation, il y a celui de pollution du web: on ne sait jamais si on est face à un contenu qui a été vérifié, édité par un être humain rigoureux, ou si c'est généré par une IA sans que qui que ce soit se préoccupe de la véracité", observe Chine Labbé.

Chaque événement au cœur de l'actualité suscite ainsi un flot d'images créées en ligne, comme les incendies d'ampleur à Los Angeles début 2025 pendant lesquels des fausses photos du signe "Hollywood" en flammes ou d'un Oscar dans les cendres ont fait le tour du monde.

Les chatbots en vogue, tels que l'américain ChatGPT, peuvent eux aussi contribuer à diffuser des infox, souligne Chine Labbé de Newsguard: "ils ont tendance à d'abord citer des sources générées par IA, donc c'est le serpent qui se mord la queue".

L'arrivée du chinois DeepSeek, qui relaie les positions officielles chinoises dans une partie de ses réponses, ne fait que renforcer la nécessité d'imposer des cadres à ces outils, plaide l'experte. Il faudrait leur "apprendre à reconnaître les sources fiables des sources de propagande".

K.Yamaguchi--JT