The Japan Times - Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

EUR -
AED 4.294825
AFN 74.26706
ALL 95.235068
AMD 433.678625
ANG 2.09282
AOA 1073.370481
ARS 1639.321515
AUD 1.630671
AWG 2.10757
AZN 1.983767
BAM 1.954352
BBD 2.355281
BDT 143.513037
BGN 1.950426
BHD 0.441275
BIF 3478.514393
BMD 1.169249
BND 1.491795
BOB 8.110989
BRL 5.829169
BSD 1.169398
BTN 111.160625
BWP 15.874236
BYN 3.307749
BYR 22917.271297
BZD 2.352357
CAD 1.59109
CDF 2707.979679
CHF 0.9161
CLF 0.027111
CLP 1067.058417
CNY 7.98626
CNH 7.987499
COP 4355.789877
CRC 531.703711
CUC 1.169249
CUP 30.985086
CVE 110.669075
CZK 24.389764
DJF 207.79897
DKK 7.471206
DOP 69.684246
DZD 154.709155
EGP 62.596073
ERN 17.538728
ETB 183.572115
FJD 2.570418
FKP 0.860826
GBP 0.863975
GEL 3.13369
GGP 0.860826
GHS 13.089782
GIP 0.860826
GMD 85.893092
GNF 10263.082116
GTQ 8.937581
GYD 244.66869
HKD 9.159717
HNL 31.125034
HRK 7.533704
HTG 153.045827
HUF 364.875679
IDR 20356.383154
ILS 3.442262
IMP 0.860826
INR 111.417985
IQD 1531.715582
IRR 1537561.824436
ISK 143.384723
JEP 0.860826
JMD 184.233475
JOD 0.828938
JPY 183.840366
KES 151.043924
KGS 102.216292
KHR 4691.024848
KMF 491.706982
KPW 1052.32368
KRW 1726.734529
KWD 0.360158
KYD 0.974678
KZT 542.507978
LAK 25700.082866
LBP 104706.206972
LKR 373.699876
LRD 214.995535
LSL 19.479861
LTL 3.452487
LVL 0.707266
LYD 7.424954
MAD 10.817011
MDL 20.135079
MGA 4852.381592
MKD 61.647295
MMK 2455.12932
MNT 4182.022623
MOP 9.436707
MRU 46.735016
MUR 54.674246
MVR 18.070718
MWK 2036.248415
MXN 20.483305
MYR 4.622065
MZN 74.727051
NAD 19.479797
NGN 1608.090757
NIO 42.92346
NOK 10.840922
NPR 177.85492
NZD 1.990535
OMR 0.449576
PAB 1.169633
PEN 4.101138
PGK 5.073077
PHP 72.140349
PKR 325.957278
PLN 4.257696
PYG 7270.612157
QAR 4.260154
RON 5.194741
RSD 117.373328
RUB 88.256626
RWF 1708.856735
SAR 4.387249
SBD 9.403225
SCR 16.261884
SDG 702.132427
SEK 10.85612
SGD 1.493049
SHP 0.872962
SLE 28.761299
SLL 24518.552683
SOS 667.640738
SRD 43.795355
STD 24201.083982
STN 24.799761
SVC 10.234372
SYP 129.231176
SZL 19.479343
THB 38.292859
TJS 10.947887
TMT 4.098216
TND 3.403178
TOP 2.81527
TRY 52.847116
TTD 7.944113
TWD 37.041623
TZS 3034.19965
UAH 51.53521
UGX 4388.865567
USD 1.169249
UYU 47.105093
UZS 13972.520287
VES 571.6956
VND 30797.421802
VUV 138.881917
WST 3.17473
XAF 655.471267
XAG 0.016066
XAU 0.000259
XCD 3.159953
XCG 2.108038
XDR 0.813364
XOF 654.779359
XPF 119.331742
YER 278.980485
ZAR 19.663779
ZMK 10524.646391
ZMW 21.90177
ZWL 376.497551
  • AEX

    -9.1300

    1004.98

    -0.9%

  • BEL20

    -0.5400

    5352.18

    -0.01%

  • PX1

    -138.7600

    7976.12

    -1.71%

  • ISEQ

    167.7500

    12593.36

    +1.35%

  • OSEBX

    11.5100

    2030.03

    +0.57%

  • PSI20

    -176.6100

    9168.05

    -1.89%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    74.1500

    3976.54

    +1.9%

  • N150

    0.0000

    4154.52

    0%

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux / Photo: Chris Delmas - AFP

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.

Taille du texte:

Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.

Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.

Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.

"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."

Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.

La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.

Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.

Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.

Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.

- "Distinguable de la réalité" -

L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.

Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.

Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.

"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".

Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.

Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.

- "Choqué" -

L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.

"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."

Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.

Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.

L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.

Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.

"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.

Y.Hara--JT