The Japan Times - Avec l'IA, peut-on encore faire confiance à ses propres oreilles?

EUR -
AED 4.324252
AFN 78.159677
ALL 96.383136
AMD 449.157247
ANG 2.108142
AOA 1079.738021
ARS 1707.873732
AUD 1.756
AWG 2.119737
AZN 2.003926
BAM 1.953035
BBD 2.371842
BDT 143.906265
BGN 1.955186
BHD 0.444171
BIF 3482.669406
BMD 1.177468
BND 1.511959
BOB 8.155419
BRL 6.501384
BSD 1.177633
BTN 105.803209
BWP 15.480018
BYN 3.437334
BYR 23078.372761
BZD 2.368437
CAD 1.610311
CDF 2590.429371
CHF 0.92851
CLF 0.027159
CLP 1065.41971
CNY 8.275838
CNH 8.252061
COP 4408.204691
CRC 588.167301
CUC 1.177468
CUP 31.202902
CVE 110.109113
CZK 24.255957
DJF 209.259952
DKK 7.469533
DOP 73.815496
DZD 152.411273
EGP 55.98684
ERN 17.66202
ETB 183.219828
FJD 2.671909
FKP 0.873155
GBP 0.872474
GEL 3.161508
GGP 0.873155
GHS 13.101396
GIP 0.873155
GMD 87.721605
GNF 10292.42848
GTQ 9.022227
GYD 246.370155
HKD 9.156244
HNL 31.041054
HRK 7.532851
HTG 154.191703
HUF 388.726936
IDR 19698.038759
ILS 3.75137
IMP 0.873155
INR 105.771538
IQD 1542.715898
IRR 49600.83927
ISK 147.977454
JEP 0.873155
JMD 187.84406
JOD 0.834796
JPY 183.703869
KES 151.834535
KGS 102.969232
KHR 4720.297188
KMF 492.181748
KPW 1059.742049
KRW 1700.7934
KWD 0.361707
KYD 0.981406
KZT 605.253112
LAK 25485.810205
LBP 105455.453486
LKR 364.543896
LRD 208.434024
LSL 19.599152
LTL 3.476757
LVL 0.712239
LYD 6.372977
MAD 10.744289
MDL 19.754948
MGA 5385.352811
MKD 61.56483
MMK 2472.481245
MNT 4186.07643
MOP 9.432805
MRU 46.632979
MUR 54.104543
MVR 18.191935
MWK 2042.000364
MXN 21.123411
MYR 4.762853
MZN 75.252081
NAD 19.599152
NGN 1707.858756
NIO 43.338643
NOK 11.782763
NPR 169.285334
NZD 2.018368
OMR 0.452732
PAB 1.177628
PEN 3.96269
PGK 5.0858
PHP 69.220398
PKR 329.880871
PLN 4.214723
PYG 7980.701311
QAR 4.292423
RON 5.09278
RSD 117.2358
RUB 93.019627
RWF 1715.16447
SAR 4.416323
SBD 9.600358
SCR 17.936864
SDG 708.268245
SEK 10.798895
SGD 1.512051
SHP 0.883406
SLE 28.347583
SLL 24690.919499
SOS 671.84598
SRD 45.138828
STD 24371.21026
STN 24.465363
SVC 10.304412
SYP 13019.121409
SZL 19.583275
THB 36.583876
TJS 10.822332
TMT 4.132913
TND 3.42605
TOP 2.835061
TRY 50.450032
TTD 8.010625
TWD 37.022303
TZS 2912.404704
UAH 49.679666
UGX 4250.981667
USD 1.177468
UYU 46.02484
UZS 14192.906373
VES 339.215384
VND 30990.957708
VUV 142.639113
WST 3.283512
XAF 655.026863
XAG 0.016365
XAU 0.000263
XCD 3.182165
XCG 2.122395
XDR 0.81366
XOF 655.029641
XPF 119.331742
YER 280.767066
ZAR 19.625449
ZMK 10598.623713
ZMW 26.58425
ZWL 379.144215
  • AEX

    -0.8500

    941.37

    -0.09%

  • BEL20

    -17.2000

    5040.37

    -0.34%

  • PX1

    0.0000

    8103.58

    0%

  • ISEQ

    -6.5200

    13037.23

    -0.05%

  • OSEBX

    4.1600

    1666.51

    +0.25%

  • PSI20

    13.8900

    8183.11

    +0.17%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    5.4700

    4214.37

    +0.13%

  • N150

    6.3700

    3753.91

    +0.17%

Avec l'IA, peut-on encore faire confiance à ses propres oreilles?
Avec l'IA, peut-on encore faire confiance à ses propres oreilles? / Photo: Chris Delmas - AFP

Avec l'IA, peut-on encore faire confiance à ses propres oreilles?

La voix de sa fille et ses sanglots l'ont bouleversée quand un homme l'a appelée pour lui demander une rançon. Mais les intonations étaient reproduites à la perfection par une intelligence artificielle (IA) pour une tentative d'arnaque, un sujet d'inquiétude qui émerge avec cette technologie en plein boom.

Taille du texte:

Le plus gros danger des IA, estiment les experts, est leur capacité à presque abolir la démarcation entre réel et fiction, fournissant aux criminels des outils efficaces et peu onéreux.

De nouvelles arnaques téléphoniques grâce aux outils de réplication de voix par IA -- aisément disponibles en ligne -- inquiètent les autorités américaines.

"Aide-moi, maman, je t'en supplie, aide-moi", entend au bout du fil Jennifer DeStefano, une mère installée dans l'Arizona.

Cette voix, elle est alors "100%" convaincue qu'il s'agit de celle, en grande détresse, de sa fille de 15 ans, partie faire du ski.

"C'était totalement sa voix, la façon dont elle aurait pleuré", a témoigné la mère à une chaîne de télévision locale en avril.

"Je n'ai pas douté un seul instant que ça puisse ne pas être elle."

Au bout du fil, l'arnaqueur qui prend ensuite la parole, depuis un numéro inconnu, exige un million de dollars.

La séquence, qui a rapidement pris fin lorsque Jennifer DeStefano est parvenue à joindre sa fille, fait désormais l'objet d'une enquête et a mis en lumière le potentiel dévoiement de l'IA par les cybercriminels.

- "Des deepfakes convaincants" -

"La réplication de voix par IA, désormais quasi impossible à distinguer de l'élocution humaine, permet aux personnes mal intentionnées comme les arnaqueurs de soutirer plus efficacement des informations et de l'argent aux victimes", explique à l'AFP Wasim Khaled, PDG de Blackbird.AI.

De nombreuses applications, dont beaucoup sont gratuites et disponibles en ligne, permettent de répliquer par l'intelligence artificielle la vraie voix d'une personne à partir d'un court enregistrement. Celui-ci peut aisément être extrait depuis des contenus postés en ligne.

"Avec un court échantillon audio, un clone de voix par IA peut être utilisé pour laisser des messages et des capsules audio. Il peut même être utilisé comme un modificateur de voix en direct lors d'appels", détaille Wasim Khaled.

"Les arnaqueurs emploient divers accents et genres, ou imitent même la façon de parler de vos proches", ajoute-t-il. Cette technologie "permet de créer des deepfakes convaincants".

Selon un sondage effectué auprès de 7.000 personnes dans neuf pays dont les Etats-Unis, une personne sur quatre a été la cible d'une tentative d'arnaque à la voix répliquée par IA, ou connait quelqu'un dans ce cas.

70% des sondés ont affirmé qu'ils n'étaient pas certains de pouvoir faire la différence entre une vraie voix et une voix clonée, selon cette enquête publiée le mois dernier par McAfee Labs.

Les autorités américaines ont récemment mis en garde contre la popularité croissante de l'"arnaque au grand-parent".

"Vous recevez un appel, une voix paniquée au bout du fil, c'est votre petit-fils. Il dit qu'il a de gros ennuis, il a eu un accident de voiture et s'est retrouvé en détention. Mais vous pouvez l'aider en envoyant de l'argent", a décrit en guise d'avertissement l'agence américaine de protection des consommateurs (FTC).

Dans les commentaires sous cette mise en garde de la FTC, plusieurs personnes âgées disaient avoir été trompées de la sorte.

- Vulnérabilité -

Un grand-père victime avait été si convaincu qu'il s'était mis à rassembler de l'argent, envisageant même de réhypothéquer sa maison, avant que la ruse ne soit éventée.

L'aisance avec laquelle on peut désormais répliquer artificiellement une voix fait que "presque toute personne présente en ligne est vulnérable", estime auprès de l'AFP Hany Farid, professeur à l'UC Berkeley School of Information.

"Ces arnaques gagnent du terrain", évalue-t-il.

Plus tôt cette année, la startup ElevenLabs a dû admettre qu'il était possible de faire un mauvais usage de son outil de réplication de voix par IA, après que des utilisateurs eurent posté en ligne un deepfake de l'actrice Emma Watson lisant "Mein Kampf".

"Nous approchons rapidement du moment où nous ne pourrons plus faire confiance aux contenus sur internet et où nous devrons faire appel à de nouvelles technologies pour s'assurer que la personne à qui l'on pense s'adresser (au téléphone) est réellement la personne à qui l'on parle", conclut Gal Tal-Hochberg, un responsable de l'entreprise d'investissements dans la tech Team8.

M.Ito--JT