The Japan Times - L'IA, un nouveau front pour la désinformation

EUR -
AED 4.333943
AFN 77.886842
ALL 96.792942
AMD 447.296501
ANG 2.112488
AOA 1082.159122
ARS 1713.458937
AUD 1.696407
AWG 2.124194
AZN 1.996602
BAM 1.947356
BBD 2.379383
BDT 144.483519
BGN 1.981838
BHD 0.444943
BIF 3498.430304
BMD 1.180108
BND 1.500606
BOB 8.192823
BRL 6.20808
BSD 1.181378
BTN 108.03203
BWP 15.549237
BYN 3.382732
BYR 23130.117712
BZD 2.375908
CAD 1.613538
CDF 2543.133159
CHF 0.919263
CLF 0.025867
CLP 1021.391854
CNY 8.197621
CNH 8.187991
COP 4274.41035
CRC 586.16336
CUC 1.180108
CUP 31.272863
CVE 110.782636
CZK 24.314731
DJF 209.728756
DKK 7.46822
DOP 74.287605
DZD 153.336689
EGP 55.568333
ERN 17.701621
ETB 183.211244
FJD 2.604026
FKP 0.861189
GBP 0.863178
GEL 3.180407
GGP 0.861189
GHS 12.928055
GIP 0.861189
GMD 86.725765
GNF 10327.125434
GTQ 9.064695
GYD 247.168748
HKD 9.216882
HNL 31.213903
HRK 7.536877
HTG 154.830622
HUF 380.943748
IDR 19785.927529
ILS 3.659326
IMP 0.861189
INR 106.761956
IQD 1546.531595
IRR 49712.051645
ISK 145.200535
JEP 0.861189
JMD 185.488081
JOD 0.836727
JPY 183.523283
KES 152.387676
KGS 103.200652
KHR 4750.534523
KMF 493.285478
KPW 1062.097242
KRW 1711.664242
KWD 0.362458
KYD 0.984473
KZT 596.578289
LAK 25366.422407
LBP 100958.242999
LKR 365.838373
LRD 219.499673
LSL 19.011247
LTL 3.484552
LVL 0.713836
LYD 7.458173
MAD 10.808314
MDL 20.001122
MGA 5251.480408
MKD 61.658671
MMK 2478.210923
MNT 4206.642931
MOP 9.503692
MRU 47.121434
MUR 53.872178
MVR 18.232606
MWK 2049.847706
MXN 20.52202
MYR 4.671456
MZN 75.231947
NAD 19.011085
NGN 1641.53047
NIO 43.30141
NOK 11.441467
NPR 172.851978
NZD 1.962741
OMR 0.453763
PAB 1.181383
PEN 3.972238
PGK 5.001318
PHP 69.531845
PKR 330.135697
PLN 4.221949
PYG 7854.940943
QAR 4.297069
RON 5.095943
RSD 117.395934
RUB 90.220397
RWF 1714.696992
SAR 4.425624
SBD 9.50943
SCR 16.816716
SDG 709.838278
SEK 10.571614
SGD 1.500395
SHP 0.885387
SLE 28.883091
SLL 24746.274816
SOS 674.433345
SRD 44.873592
STD 24425.853934
STN 25.077296
SVC 10.337309
SYP 13051.493324
SZL 19.011467
THB 37.149753
TJS 11.033804
TMT 4.142179
TND 3.36036
TOP 2.841417
TRY 51.311217
TTD 7.998387
TWD 37.281027
TZS 3054.698637
UAH 50.877442
UGX 4219.703348
USD 1.180108
UYU 45.831275
UZS 14456.323222
VES 436.394019
VND 30706.41137
VUV 140.617793
WST 3.199014
XAF 653.152601
XAG 0.014267
XAU 0.000247
XCD 3.189301
XCG 2.129068
XDR 0.810988
XOF 650.832122
XPF 119.331742
YER 281.308231
ZAR 18.963758
ZMK 10622.392479
ZMW 23.184454
ZWL 379.994309
  • AEX

    7.8100

    1009.51

    +0.78%

  • BEL20

    73.7800

    5459.32

    +1.37%

  • PX1

    54.4500

    8181.17

    +0.67%

  • ISEQ

    231.4000

    13379.13

    +1.76%

  • OSEBX

    -3.1700

    1757.17

    -0.18%

  • PSI20

    44.1800

    8706.09

    +0.51%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    43.1000

    4071.19

    +1.07%

  • N150

    17.2900

    3947.76

    +0.44%

L'IA, un nouveau front pour la désinformation
L'IA, un nouveau front pour la désinformation / Photo: SEBASTIEN BOZON - AFP/Archives

L'IA, un nouveau front pour la désinformation

Des deepfakes visant à influencer des élections aux chatbots relayant des infox, la pollution du monde de l'information apparaît comme l'un des grands dangers du recours croissant à l'intelligence artificielle (IA).

Taille du texte:

Le déploiement rapide de cette technologie, au cœur d'un sommet mondial en cours à Paris, a déjà nourri ces dernières années l'essor de la désinformation, en lui offrant de nouveaux outils redoutables.

En Slovaquie, en 2023, un enregistrement avait fait grand bruit: on y entendait le chef d'un parti pro-européen y admettre que les élections législatives allaient être manipulées. Il s'agissait d'un deepfake, un contenu truqué grâce à l'IA, qui a pu influencer des électeurs.

Partout dans le monde, des responsables politiques ont déjà fait les frais de ce type de procédés, à fort potentiel de viralité sur les réseaux sociaux.

C'est le cas de l'ancien président américain Joe Biden, dont la voix a été truquée pour conseiller à des électeurs de ne pas voter. Ou encore d'Emmanuel Macron, annonçant sa démission dans une vidéo très partagée à la bande-son trafiquée.

- Deepfakes pornographiques -

Des femmes politiques aux Etats-Unis, en Italie, au Royaume-Uni ou encore au Pakistan ont aussi été victimes d'images à caractère pornographique générées par IA. Une tendance jugée inquiétante par des chercheurs.

Ces deepfakes à caractère sexuel visent aussi régulièrement des célébrités comme la chanteuse américaine Taylor Swift, et toutes les femmes y seraient aujourd'hui vulnérables, met en garde l'American Sunlight Project, un groupe de recherche sur la désinformation.

L'IA est aussi au cœur d'opérations d'ingérences numériques de grande ampleur.

Les campagnes prorusses appelées Doppelgänger ou Matriochka figurent parmi les exemples les plus retentissants: leurs auteurs ont eu largement recours à des profils inauthentiques, des bots, pour publier des contenus générés par IA, visant notamment à saper le soutien occidental à l'Ukraine.

"Ce qui est nouveau, c'est l'échelle et la facilité avec laquelle une personne avec très peu de ressources financières et de temps peut diffuser des contenus faux qui, par ailleurs, paraissent de plus en plus crédibles et sont de plus en plus difficiles à détecter", détaille Chine Labbé, rédactrice en chef de l'organisation Newsguard qui analyse la fiabilité des sites et contenus en ligne.

- "Pollution du web" -

Aucun domaine n'échappe à ces contenus factices: de faux clips musicaux sont souvent mis en circulation, tout comme de fausses photos d'événements historiques fabriquées en quelques clics.

Sur Facebook, des comptes multiplient les images attendrissantes générées par IA pour obtenir de l'engagement. La finalité n'est pas forcément de faire circuler une fausse information, mais plutôt de capter l'attention à des fins mercantiles, voire de préparer des arnaques une fois des utilisateurs crédules identifiés.

Autre cas de figure: en 2024, des deepfakes de médecins connus, comme Michel Cymes en France, ont été diffusés pour faire la promotion de remèdes qu'ils n'avaient pourtant jamais soutenus.

Fin décembre, alors que l'histoire d'un homme qui a mis le feu à une femme dans le métro new-yorkais faisait la Une de l'actualité aux Etats-Unis, une prétendue photo de la victime a largement circulé. Elle avait été générée par IA, et le drame instrumentalisé, dans le but de renvoyer vers des sites de cryptomonnaies.

"Au-delà du risque de désinformation, il y a celui de pollution du web: on ne sait jamais si on est face à un contenu qui a été vérifié, édité par un être humain rigoureux, ou si c'est généré par une IA sans que qui que ce soit se préoccupe de la véracité", observe Chine Labbé.

Chaque événement au cœur de l'actualité suscite ainsi un flot d'images créées en ligne, comme les incendies d'ampleur à Los Angeles début 2025 pendant lesquels des fausses photos du signe "Hollywood" en flammes ou d'un Oscar dans les cendres ont fait le tour du monde.

Les chatbots en vogue, tels que l'américain ChatGPT, peuvent eux aussi contribuer à diffuser des infox, souligne Chine Labbé de Newsguard: "ils ont tendance à d'abord citer des sources générées par IA, donc c'est le serpent qui se mord la queue".

L'arrivée du chinois DeepSeek, qui relaie les positions officielles chinoises dans une partie de ses réponses, ne fait que renforcer la nécessité d'imposer des cadres à ces outils, plaide l'experte. Il faudrait leur "apprendre à reconnaître les sources fiables des sources de propagande".

K.Yamaguchi--JT