The Japan Times - Avec l'IA, peut-on encore faire confiance à ses propres oreilles?

EUR -
AED 4.300203
AFN 74.938572
ALL 96.041824
AMD 440.335601
AOA 1073.732152
ARS 1618.20269
AUD 1.652941
AWG 2.109117
AZN 1.993097
BAM 1.959689
BBD 2.355404
BDT 143.665101
BHD 0.441752
BIF 3477.628441
BMD 1.170919
BND 1.491673
BOB 8.081071
BRL 5.969695
BSD 1.169436
BTN 108.298692
BWP 15.752462
BYN 3.396728
BYR 22950.005873
BZD 2.352028
CAD 1.617747
CDF 2693.113378
CHF 0.924212
CLF 0.026507
CLP 1043.276762
CNY 7.999541
CNH 7.996099
COP 4279.180814
CRC 543.683573
CUC 1.170919
CUP 31.029345
CVE 110.653743
CZK 24.369218
DJF 208.095247
DKK 7.47198
DOP 70.694254
DZD 154.85044
EGP 62.162664
ERN 17.56378
ETB 182.610326
FJD 2.617825
FKP 0.871255
GBP 0.870935
GEL 3.143845
GGP 0.871255
GHS 12.897675
GIP 0.871255
GMD 86.647589
GNF 10274.811269
GTQ 8.946793
GYD 244.666581
HKD 9.172936
HNL 31.056028
HRK 7.530413
HTG 153.375681
HUF 376.450941
IDR 19978.15575
ILS 3.59168
IMP 0.871255
INR 108.144291
IQD 1532.059972
IRR 1540928.966161
ISK 143.390335
JEP 0.871255
JMD 184.899298
JOD 0.83016
JPY 185.98931
KES 151.341119
KGS 102.395079
KHR 4698.314584
KMF 492.956886
KPW 1053.77309
KRW 1726.853334
KWD 0.36172
KYD 0.974546
KZT 557.663818
LAK 25719.228214
LBP 104855.766899
LKR 368.996995
LRD 215.741321
LSL 19.120863
LTL 3.457419
LVL 0.708277
LYD 7.441183
MAD 10.886411
MDL 20.196597
MGA 4885.758288
MKD 61.571829
MMK 2458.671744
MNT 4186.327475
MOP 9.437049
MRU 46.848138
MUR 54.541673
MVR 18.09026
MWK 2033.885779
MXN 20.32545
MYR 4.663756
MZN 74.880462
NAD 19.121726
NGN 1594.967147
NIO 43.035955
NOK 11.11278
NPR 173.276083
NZD 1.997008
OMR 0.45022
PAB 1.169426
PEN 3.948922
PGK 5.062111
PHP 69.869835
PKR 326.715558
PLN 4.246956
PYG 7555.089723
QAR 4.269287
RON 5.092088
RSD 117.350666
RUB 90.89371
RWF 1711.297632
SAR 4.394135
SBD 9.424151
SCR 16.91011
SDG 703.721648
SEK 10.848322
SGD 1.489631
SLE 28.814898
SOS 669.175265
SRD 43.997851
STD 24235.652331
STN 24.549032
SVC 10.232437
SYP 129.449539
SZL 19.121524
THB 37.452967
TJS 11.127425
TMT 4.098215
TND 3.410282
TRY 52.163724
TTD 7.932844
TWD 37.1825
TZS 3038.533661
UAH 50.796656
UGX 4309.570668
USD 1.170919
UYU 47.464395
UZS 14267.496362
VES 555.503604
VND 30824.433908
VUV 139.965426
WST 3.242616
XAF 657.26976
XAG 0.015377
XAU 0.000245
XCD 3.164466
XCG 2.10771
XDR 0.817433
XOF 657.26976
XPF 119.331742
YER 279.351899
ZAR 19.154181
ZMK 10539.675023
ZMW 22.307555
ZWL 377.035333
  • AEX

    1.9100

    1005.12

    +0.19%

  • BEL20

    24.8100

    5417.26

    +0.46%

  • PX1

    -18.1800

    8245.8

    -0.22%

  • ISEQ

    -190.1000

    12654.31

    -1.48%

  • OSEBX

    37.6300

    2060.64

    +1.86%

  • PSI20

    34.9600

    9484.93

    +0.37%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    43.9800

    3970.39

    +1.12%

  • N150

    18.2200

    4067.32

    +0.45%

Avec l'IA, peut-on encore faire confiance à ses propres oreilles?
Avec l'IA, peut-on encore faire confiance à ses propres oreilles? / Photo: Chris Delmas - AFP

Avec l'IA, peut-on encore faire confiance à ses propres oreilles?

La voix de sa fille et ses sanglots l'ont bouleversée quand un homme l'a appelée pour lui demander une rançon. Mais les intonations étaient reproduites à la perfection par une intelligence artificielle (IA) pour une tentative d'arnaque, un sujet d'inquiétude qui émerge avec cette technologie en plein boom.

Taille du texte:

Le plus gros danger des IA, estiment les experts, est leur capacité à presque abolir la démarcation entre réel et fiction, fournissant aux criminels des outils efficaces et peu onéreux.

De nouvelles arnaques téléphoniques grâce aux outils de réplication de voix par IA -- aisément disponibles en ligne -- inquiètent les autorités américaines.

"Aide-moi, maman, je t'en supplie, aide-moi", entend au bout du fil Jennifer DeStefano, une mère installée dans l'Arizona.

Cette voix, elle est alors "100%" convaincue qu'il s'agit de celle, en grande détresse, de sa fille de 15 ans, partie faire du ski.

"C'était totalement sa voix, la façon dont elle aurait pleuré", a témoigné la mère à une chaîne de télévision locale en avril.

"Je n'ai pas douté un seul instant que ça puisse ne pas être elle."

Au bout du fil, l'arnaqueur qui prend ensuite la parole, depuis un numéro inconnu, exige un million de dollars.

La séquence, qui a rapidement pris fin lorsque Jennifer DeStefano est parvenue à joindre sa fille, fait désormais l'objet d'une enquête et a mis en lumière le potentiel dévoiement de l'IA par les cybercriminels.

- "Des deepfakes convaincants" -

"La réplication de voix par IA, désormais quasi impossible à distinguer de l'élocution humaine, permet aux personnes mal intentionnées comme les arnaqueurs de soutirer plus efficacement des informations et de l'argent aux victimes", explique à l'AFP Wasim Khaled, PDG de Blackbird.AI.

De nombreuses applications, dont beaucoup sont gratuites et disponibles en ligne, permettent de répliquer par l'intelligence artificielle la vraie voix d'une personne à partir d'un court enregistrement. Celui-ci peut aisément être extrait depuis des contenus postés en ligne.

"Avec un court échantillon audio, un clone de voix par IA peut être utilisé pour laisser des messages et des capsules audio. Il peut même être utilisé comme un modificateur de voix en direct lors d'appels", détaille Wasim Khaled.

"Les arnaqueurs emploient divers accents et genres, ou imitent même la façon de parler de vos proches", ajoute-t-il. Cette technologie "permet de créer des deepfakes convaincants".

Selon un sondage effectué auprès de 7.000 personnes dans neuf pays dont les Etats-Unis, une personne sur quatre a été la cible d'une tentative d'arnaque à la voix répliquée par IA, ou connait quelqu'un dans ce cas.

70% des sondés ont affirmé qu'ils n'étaient pas certains de pouvoir faire la différence entre une vraie voix et une voix clonée, selon cette enquête publiée le mois dernier par McAfee Labs.

Les autorités américaines ont récemment mis en garde contre la popularité croissante de l'"arnaque au grand-parent".

"Vous recevez un appel, une voix paniquée au bout du fil, c'est votre petit-fils. Il dit qu'il a de gros ennuis, il a eu un accident de voiture et s'est retrouvé en détention. Mais vous pouvez l'aider en envoyant de l'argent", a décrit en guise d'avertissement l'agence américaine de protection des consommateurs (FTC).

Dans les commentaires sous cette mise en garde de la FTC, plusieurs personnes âgées disaient avoir été trompées de la sorte.

- Vulnérabilité -

Un grand-père victime avait été si convaincu qu'il s'était mis à rassembler de l'argent, envisageant même de réhypothéquer sa maison, avant que la ruse ne soit éventée.

L'aisance avec laquelle on peut désormais répliquer artificiellement une voix fait que "presque toute personne présente en ligne est vulnérable", estime auprès de l'AFP Hany Farid, professeur à l'UC Berkeley School of Information.

"Ces arnaques gagnent du terrain", évalue-t-il.

Plus tôt cette année, la startup ElevenLabs a dû admettre qu'il était possible de faire un mauvais usage de son outil de réplication de voix par IA, après que des utilisateurs eurent posté en ligne un deepfake de l'actrice Emma Watson lisant "Mein Kampf".

"Nous approchons rapidement du moment où nous ne pourrons plus faire confiance aux contenus sur internet et où nous devrons faire appel à de nouvelles technologies pour s'assurer que la personne à qui l'on pense s'adresser (au téléphone) est réellement la personne à qui l'on parle", conclut Gal Tal-Hochberg, un responsable de l'entreprise d'investissements dans la tech Team8.

M.Ito--JT