The Japan Times - Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

EUR -
AED 4.237583
AFN 72.693752
ALL 96.083665
AMD 433.726263
ANG 2.065521
AOA 1058.097238
ARS 1611.096401
AUD 1.627012
AWG 2.076964
AZN 1.957395
BAM 1.955434
BBD 2.317406
BDT 141.175387
BGN 1.972318
BHD 0.435926
BIF 3416.234019
BMD 1.153869
BND 1.470256
BOB 7.950648
BRL 5.996198
BSD 1.150604
BTN 106.252936
BWP 15.636342
BYN 3.451113
BYR 22615.829146
BZD 2.314007
CAD 1.580015
CDF 2613.512848
CHF 0.907177
CLF 0.026486
CLP 1045.785768
CNY 7.946522
CNH 7.938554
COP 4269.233915
CRC 539.31065
CUC 1.153869
CUP 30.577524
CVE 110.246257
CZK 24.445461
DJF 204.885168
DKK 7.471843
DOP 70.228365
DZD 152.511672
EGP 60.430077
ERN 17.308033
ETB 179.623441
FJD 2.54889
FKP 0.864765
GBP 0.863994
GEL 3.127214
GGP 0.864765
GHS 12.535869
GIP 0.864765
GMD 84.844491
GNF 10083.329455
GTQ 8.813502
GYD 240.719076
HKD 9.044641
HNL 30.452955
HRK 7.528765
HTG 150.924996
HUF 390.627295
IDR 19568.461556
ILS 3.569811
IMP 0.864765
INR 106.997682
IQD 1507.230698
IRR 1516183.648142
ISK 143.298995
JEP 0.864765
JMD 181.000013
JOD 0.818054
JPY 183.519391
KES 149.56326
KGS 100.905754
KHR 4617.235044
KMF 492.702289
KPW 1038.457027
KRW 1723.170402
KWD 0.353753
KYD 0.958829
KZT 554.390945
LAK 24690.588441
LBP 103033.2836
LKR 358.295982
LRD 210.554204
LSL 19.248161
LTL 3.407074
LVL 0.697964
LYD 7.365748
MAD 10.789366
MDL 20.071588
MGA 4790.102621
MKD 61.593693
MMK 2423.243908
MNT 4120.582999
MOP 9.287041
MRU 45.769417
MUR 53.666511
MVR 17.827435
MWK 1995.026251
MXN 20.352175
MYR 4.519126
MZN 73.744171
NAD 19.248161
NGN 1564.577088
NIO 42.342985
NOK 11.060872
NPR 170.005834
NZD 1.972608
OMR 0.44369
PAB 1.15052
PEN 3.932614
PGK 4.964178
PHP 68.948263
PKR 321.238287
PLN 4.262882
PYG 7458.731962
QAR 4.194987
RON 5.091795
RSD 117.421168
RUB 96.593463
RWF 1682.684766
SAR 4.332929
SBD 9.283085
SCR 15.84955
SDG 693.475127
SEK 10.746038
SGD 1.47424
SHP 0.8657
SLE 28.383287
SLL 24196.065005
SOS 656.391253
SRD 43.414286
STD 23882.755212
STN 24.495942
SVC 10.067201
SYP 127.601462
SZL 19.251727
THB 37.528395
TJS 11.028225
TMT 4.05008
TND 3.391723
TOP 2.778239
TRY 51.023508
TTD 7.806605
TWD 36.807836
TZS 3007.247299
UAH 50.55213
UGX 4343.261614
USD 1.153869
UYU 46.772048
UZS 13962.505268
VES 516.71188
VND 30358.289022
VUV 137.994476
WST 3.154336
XAF 655.834136
XAG 0.014683
XAU 0.000235
XCD 3.118389
XCG 2.073629
XDR 0.815647
XOF 655.845502
XPF 119.331742
YER 275.255428
ZAR 19.297997
ZMK 10386.182289
ZMW 22.442185
ZWL 371.545294
  • AEX

    -10.9400

    1001.92

    -1.08%

  • BEL20

    -28.9300

    5137.77

    -0.56%

  • PX1

    9.5700

    7984.35

    +0.12%

  • ISEQ

    138.4500

    12390.52

    +1.13%

  • OSEBX

    12.4300

    1984.86

    +0.63%

  • PSI20

    -48.6300

    9126.8

    -0.53%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    7.5600

    3787.95

    +0.2%

  • N150

    14.0000

    3903.25

    +0.36%

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux / Photo: Chris Delmas - AFP

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.

Taille du texte:

Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.

Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.

Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.

"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."

Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.

La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.

Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.

Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.

Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.

- "Distinguable de la réalité" -

L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.

Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.

Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.

"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".

Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.

Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.

- "Choqué" -

L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.

"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."

Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.

Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.

L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.

Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.

"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.

Y.Hara--JT