The Japan Times - "Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

EUR -
AED 4.333943
AFN 77.886842
ALL 96.792942
AMD 447.296501
ANG 2.112488
AOA 1082.159122
ARS 1713.458937
AUD 1.696407
AWG 2.124194
AZN 1.996602
BAM 1.947356
BBD 2.379383
BDT 144.483519
BGN 1.981838
BHD 0.444943
BIF 3498.430304
BMD 1.180108
BND 1.500606
BOB 8.192823
BRL 6.20808
BSD 1.181378
BTN 108.03203
BWP 15.549237
BYN 3.382732
BYR 23130.117712
BZD 2.375908
CAD 1.613538
CDF 2543.133159
CHF 0.919263
CLF 0.025867
CLP 1021.391854
CNY 8.197621
CNH 8.187991
COP 4274.41035
CRC 586.16336
CUC 1.180108
CUP 31.272863
CVE 110.782636
CZK 24.314731
DJF 209.728756
DKK 7.46822
DOP 74.287605
DZD 153.336689
EGP 55.568333
ERN 17.701621
ETB 183.211244
FJD 2.604026
FKP 0.861189
GBP 0.863178
GEL 3.180407
GGP 0.861189
GHS 12.928055
GIP 0.861189
GMD 86.725765
GNF 10327.125434
GTQ 9.064695
GYD 247.168748
HKD 9.216882
HNL 31.213903
HRK 7.536877
HTG 154.830622
HUF 380.943748
IDR 19785.927529
ILS 3.659326
IMP 0.861189
INR 106.761956
IQD 1546.531595
IRR 49712.051645
ISK 145.200535
JEP 0.861189
JMD 185.488081
JOD 0.836727
JPY 183.523283
KES 152.387676
KGS 103.200652
KHR 4750.534523
KMF 493.285478
KPW 1062.097242
KRW 1711.664242
KWD 0.362458
KYD 0.984473
KZT 596.578289
LAK 25366.422407
LBP 100958.242999
LKR 365.838373
LRD 219.499673
LSL 19.011247
LTL 3.484552
LVL 0.713836
LYD 7.458173
MAD 10.808314
MDL 20.001122
MGA 5251.480408
MKD 61.658671
MMK 2478.210923
MNT 4206.642931
MOP 9.503692
MRU 47.121434
MUR 53.872178
MVR 18.232606
MWK 2049.847706
MXN 20.52202
MYR 4.671456
MZN 75.231947
NAD 19.011085
NGN 1641.53047
NIO 43.30141
NOK 11.441467
NPR 172.851978
NZD 1.962741
OMR 0.453763
PAB 1.181383
PEN 3.972238
PGK 5.001318
PHP 69.531845
PKR 330.135697
PLN 4.221949
PYG 7854.940943
QAR 4.297069
RON 5.095943
RSD 117.395934
RUB 90.220397
RWF 1714.696992
SAR 4.425624
SBD 9.50943
SCR 16.816716
SDG 709.838278
SEK 10.571614
SGD 1.500395
SHP 0.885387
SLE 28.883091
SLL 24746.274816
SOS 674.433345
SRD 44.873592
STD 24425.853934
STN 25.077296
SVC 10.337309
SYP 13051.493324
SZL 19.011467
THB 37.149753
TJS 11.033804
TMT 4.142179
TND 3.36036
TOP 2.841417
TRY 51.311217
TTD 7.998387
TWD 37.281027
TZS 3054.698637
UAH 50.877442
UGX 4219.703348
USD 1.180108
UYU 45.831275
UZS 14456.323222
VES 436.394019
VND 30706.41137
VUV 140.617793
WST 3.199014
XAF 653.152601
XAG 0.014267
XAU 0.000247
XCD 3.189301
XCG 2.129068
XDR 0.810988
XOF 650.832122
XPF 119.331742
YER 281.308231
ZAR 18.963758
ZMK 10622.392479
ZMW 23.184454
ZWL 379.994309
  • AEX

    7.8100

    1009.51

    +0.78%

  • BEL20

    73.7800

    5459.32

    +1.37%

  • PX1

    54.4500

    8181.17

    +0.67%

  • ISEQ

    231.4000

    13379.13

    +1.76%

  • OSEBX

    -3.1700

    1757.17

    -0.18%

  • PSI20

    44.1800

    8706.09

    +0.51%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    43.1000

    4071.19

    +1.07%

  • N150

    17.2900

    3947.76

    +0.44%

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA
"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA / Photo: Stefani REYNOLDS - AFP/Archives

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

Ellis, adolescente texane de 14 ans, s'est réveillée un matin d'octobre avec plusieurs appels manqués et messages affolés sur son téléphone. De fausses photographies d'elle, dénudée, circulaient sur les réseaux sociaux.

Taille du texte:

"C'étaient des photos d'une de mes meilleures amies et de moi tirées d'Instagram. Des corps nus avaient été édités dessus", raconte la collégienne à l'AFP.

"Je me souviens avoir eu très très peur car ces faux nus étaient en train d'être envoyés autour de moi. Et je n'ai jamais rien fait de tel".

Comme plusieurs camarades de son collège de la périphérie de Dallas, au Texas, la jeune fille a été victime de montages hyperréalistes (deepfakes) à caractère sexuel, fabriqués sans leur consentement par un élève puis partagés sur le réseau Snapchat.

Avec la popularisation de l'intelligence artificielle (IA), il est devenu plus facile de fabriquer ces montages photo ou vidéo et de les rendre hyperréalistes, ouvrant la voie à leur utilisation à des fins de harcèlement ou d'humiliation.

"Les filles ne faisaient que pleurer, et pleurer à ne plus en finir, elles avaient honte", se souvient Anna Berry McAdams, mise au courant immédiatement par sa fille Ellis.

"Elle me disait: +Maman, on dirait moi+, et je lui répondais +mais non ma chérie, j'étais avec toi quand la photo a été prise et je sais que ce n'est pas le cas+", poursuit la quinquagénaire, qui se dit "horrifiée" par le réalisme des clichés.

- Quelques dollars -

Fin octobre, d'autres "deepfakes" à caractère sexuel ont été découverts dans un lycée du New Jersey, au nord-est des Etats-Unis. Une enquête a été ouverte pour identifier toutes les victimes et le ou les auteurs.

"Nous commençons à voir de plus en plus de cas émerger (...) mais en matière d'abus sexuels, de +revenge porn+ (divulgation malveillante d'images intimes) ou de +deepfakes pornographiques+, beaucoup de personnes ne se manifestent pas et souffrent en silence parce qu'elles ont peur de rendre l'affaire publique", expose Renée Cummings, criminologue et chercheuse en intelligence artificielle.

S'il est impossible d'évaluer l'ampleur du phénomène, "n'importe qui ayant un smartphone et quelques dollars peut maintenant fabriquer un +deepfake+", précise cette professeure de l'Université de Virginie.

Et ce, grâce aux récents progrès et à la démocratisation de l'IA générative, capable de produire textes, lignes de code, images et sons sur simple requête en langage courant.

De fait, les montages hyperréalistes, qui touchaient auparavant à l'image des célébrités "ayant des tas et des tas de photos et de vidéos d'eux en ligne" concernent à présent tout un chacun, explique Hany Farid, professeur à l'Université de Californie à Berkeley.

"Si vous avez un profil LinkedIn avec une photo de votre tête, quelqu'un peut créer une image sexuelle de vous", poursuit ce spécialiste en détection d'images manipulées numériquement, notant que ces montages "visent principalement les femmes et les jeunes filles".

- "Traumatisme bien réel"-

Face à cette menace grandissante, les systèmes scolaires et judiciaires apparaissent dépassés.

"Bien que votre visage ait été superposé à un corps, ce corps n'est pas vraiment le vôtre, donc ce n'est pas comme si quelqu'un avait partagé un nu de vous" aux yeux de la loi, explique Mme Cummings.

Aux Etats-Unis, aucune loi fédérale ne punit la fabrication et la transmission de fausses images à caractère sexuel, et seule une poignée d'Etats dispose de législations spécifiques.

Fin octobre, Joe Biden a exhorté les législateurs à instaurer des garde-fous, afin d'empêcher notamment "l'IA générative de produire des contenus pédocriminels ou des images intimes non consenties de personnes réelles".

Si la responsabilité des créateurs de ces images -aujourd'hui difficilement identifiables- est centrale, celle des entreprises derrière les sites ou logiciels utilisés, et des réseaux sociaux, vecteurs des contenus, doit aussi être posée, insiste M. Farid.

Car si ces images sont fausses, "le traumatisme est lui bien réel", abonde Renée Cummings, décrivant des personnes "souffrant d'anxiété, de crises de panique, de dépression ou encore de syndromes post-traumatiques après avoir été victimes de +deepfakes pornographiques". "Cela peut détruire une vie".

La texane Ellis, qui se décrit comme une adolescente "sociable" et sportive, raconte avoir à présent "constamment peur", bien que l'élève à l'origine des "deepfakes" ait été identifié et exclu temporairement du collège.

"Je ne sais pas combien de photos il a pu faire ni combien de personnes ont pu les recevoir", explique-t-elle, disant avoir demandé à changer d'établissement scolaire.

Face à cette inconnue, sa mère se mobilise pour faire reconnaître ces images comme de la "pornographie infantile" et les voir punir comme telles.

"Cela pourrait les affecter toute leur vie. Cela ne va jamais sortir d'internet. Donc quand elles vont postuler à l'université par exemple, qui sait si (ces images) ne vont pas resurgir?", s'inquiète Anna Berry McAdams.

T.Ikeda--JT