The Japan Times - OpenAI (ChatGPT) présente un outil de clonage de la voix

EUR -
AED 4.33804
AFN 76.779267
ALL 96.374356
AMD 447.71893
ANG 2.114485
AOA 1083.182631
ARS 1712.435599
AUD 1.697929
AWG 2.129156
AZN 2.011163
BAM 1.949197
BBD 2.381632
BDT 144.620112
BGN 1.983712
BHD 0.445341
BIF 3515.012221
BMD 1.181224
BND 1.502025
BOB 8.200568
BRL 6.212068
BSD 1.182494
BTN 108.134162
BWP 15.563937
BYN 3.38593
BYR 23151.984599
BZD 2.378154
CAD 1.613144
CDF 2675.471776
CHF 0.921278
CLF 0.025959
CLP 1025.018142
CNY 8.211572
CNH 8.199329
COP 4283.495142
CRC 586.717511
CUC 1.181224
CUP 31.302428
CVE 109.892748
CZK 24.309266
DJF 210.575606
DKK 7.470035
DOP 74.68921
DZD 153.350921
EGP 55.624997
ERN 17.718356
ETB 184.332392
FJD 2.632594
FKP 0.862003
GBP 0.865223
GEL 3.183433
GGP 0.862003
GHS 12.966078
GIP 0.862003
GMD 86.229201
GNF 10375.983988
GTQ 9.073265
GYD 247.402417
HKD 9.225398
HNL 31.214264
HRK 7.534907
HTG 154.976996
HUF 381.085803
IDR 19826.839872
ILS 3.660205
IMP 0.862003
INR 108.080773
IQD 1549.052714
IRR 49759.048718
ISK 144.994919
JEP 0.862003
JMD 185.663438
JOD 0.837461
JPY 183.725144
KES 152.531745
KGS 103.297792
KHR 4761.073794
KMF 490.207333
KPW 1063.101334
KRW 1718.00772
KWD 0.362955
KYD 0.985404
KZT 597.142286
LAK 25429.965772
LBP 105893.477113
LKR 366.184232
LRD 219.356234
LSL 18.93177
LTL 3.487847
LVL 0.714511
LYD 7.470788
MAD 10.783173
MDL 20.020031
MGA 5273.159935
MKD 61.663383
MMK 2480.553789
MNT 4210.619832
MOP 9.512677
MRU 46.954944
MUR 53.92267
MVR 18.261671
MWK 2050.363246
MXN 20.509776
MYR 4.656351
MZN 75.314989
NAD 18.93177
NGN 1646.685402
NIO 43.512605
NOK 11.46028
NPR 173.01539
NZD 1.96659
OMR 0.454064
PAB 1.182499
PEN 3.982709
PGK 5.066837
PHP 69.546314
PKR 331.003457
PLN 4.221091
PYG 7862.366893
QAR 4.322657
RON 5.095918
RSD 117.433734
RUB 90.421532
RWF 1728.744025
SAR 4.429696
SBD 9.510756
SCR 17.716387
SDG 710.496468
SEK 10.592606
SGD 1.50306
SHP 0.886224
SLE 28.733281
SLL 24769.669596
SOS 675.81645
SRD 44.91603
STD 24448.945792
STN 24.417288
SVC 10.347082
SYP 13063.832022
SZL 18.9229
THB 37.308921
TJS 11.044235
TMT 4.134283
TND 3.411544
TOP 2.844103
TRY 51.370125
TTD 8.005948
TWD 37.334917
TZS 3057.585555
UAH 50.925541
UGX 4223.692596
USD 1.181224
UYU 45.874604
UZS 14456.031409
VES 408.634194
VND 30735.440779
VUV 140.750731
WST 3.202039
XAF 653.770082
XAG 0.015034
XAU 0.000251
XCD 3.192316
XCG 2.131081
XDR 0.811755
XOF 653.742502
XPF 119.331742
YER 281.51517
ZAR 18.981261
ZMK 10632.429606
ZMW 23.206373
ZWL 380.353551
  • AEX

    7.8100

    1009.51

    +0.78%

  • BEL20

    73.7800

    5459.32

    +1.37%

  • PX1

    54.4500

    8181.17

    +0.67%

  • ISEQ

    231.4000

    13379.13

    +1.76%

  • OSEBX

    -3.1700

    1757.17

    -0.18%

  • PSI20

    44.1800

    8706.09

    +0.51%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    43.1000

    4071.19

    +1.07%

  • N150

    17.2900

    3947.76

    +0.44%

OpenAI (ChatGPT) présente un outil de clonage de la voix
OpenAI (ChatGPT) présente un outil de clonage de la voix / Photo: SEBASTIEN BOZON - AFP

OpenAI (ChatGPT) présente un outil de clonage de la voix

OpenAI, géant de l'intelligence artificielle (IA) générative et éditeur de ChatGPT, a présenté vendredi un outil de clonage de voix, dont l'utilisation sera restreinte pour empêcher des fraudes ou des crimes, comme l'usurpation d'identité.

Taille du texte:

Baptisé "Voice Engine", ce modèle d'IA peut reproduire la voix d'une personne à partir d'un échantillon audio de 15 secondes, selon un communiqué d'OpenAI sur les résultats d'un test à petite échelle.

"Nous reconnaissons que la capacité de générer des voix ressemblant à celles de personnes comporte de sérieux risques, qui sont particulièrement importants en cette année électorale", a déclaré l'entreprise basée à San Francisco.

"Nous travaillons avec des partenaires américains et internationaux issus du gouvernement, des médias, du divertissement, de l'éducation, de la société civile et d'autres secteurs et nous prenons en compte leurs commentaires au fur et à mesure que nous développons l'outil".

En cette année électorale cruciale dans le monde, les chercheurs en désinformation craignent une utilisation abusive des applications d'IA générative (production automatisée de textes, images, etc), et notamment des outils de clonage de voix, qui sont bon marché, faciles à utiliser et difficiles à retracer.

OpenAI a assuré avoir adopté "une approche prudente et informée" avant une diffusion plus large du nouvel outil "en raison du potentiel d'utilisation abusive des voix synthétiques".

Cette présentation prudente intervient après un incident politique majeur, quand un consultant travaillant pour la campagne présidentielle d'un rival démocrate de Joe Biden a mis au point un programme automatisé qui usurpait l'identité du président américain, en campagne pour sa réélection.

La voix imitant celle de Joe Biden appelait des électeurs pour les inciter à s'abstenir lors de la primaire du New Hampshire.

Les Etats-Unis ont depuis interdit les appels par des voix clonées, générées par de l'IA, afin de lutter contre les arnaques politiques ou commerciales.

OpenAI a précisé que les partenaires qui testent "Voice Engine" ont accepté des règles exigeant notamment le consentement explicite et informé de toute personne dont la voix est dupliquée et la transparence pour les auditeurs: ils doivent savoir clairement que les voix qu'ils entendent sont générées par l'IA.

"Nous avons mis en place un ensemble de mesures de sécurité, y compris une marque en filigrane pour pouvoir retracer l'origine de tout son généré par Voice Engine, ainsi qu'un contrôle proactif de son utilisation", a insisté OpenAI.

En octobre dernier, la Maison Blanche avait dévoilé des règles et principes pour encadrer le développement de l'IA, dont celui de la transparence.

Joe Biden s'était ému à l'idée que des criminels ne s'en servent pour piéger des personnes en se faisant passer pour des membres de leur famille.

S.Yamamoto--JT