The Japan Times - En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

EUR -
AED 4.302469
AFN 73.80675
ALL 95.470896
AMD 430.494225
ANG 2.097589
AOA 1075.470326
ARS 1622.57107
AUD 1.61569
AWG 2.111694
AZN 2.030452
BAM 1.95617
BBD 2.359586
BDT 143.80718
BGN 1.956372
BHD 0.44198
BIF 3487.678259
BMD 1.171536
BND 1.490869
BOB 8.095772
BRL 5.743694
BSD 1.171541
BTN 112.062223
BWP 15.782454
BYN 3.264489
BYR 22962.113885
BZD 2.356226
CAD 1.603886
CDF 2606.66878
CHF 0.91538
CLF 0.026682
CLP 1050.10664
CNY 7.957192
CNH 7.951622
COP 4436.924748
CRC 533.309901
CUC 1.171536
CUP 31.045715
CVE 110.287727
CZK 24.346911
DJF 208.624773
DKK 7.472529
DOP 68.953032
DZD 155.208711
EGP 62.018211
ERN 17.573046
ETB 182.927139
FJD 2.561388
FKP 0.86601
GBP 0.867247
GEL 3.128174
GGP 0.86601
GHS 13.279907
GIP 0.86601
GMD 86.118684
GNF 10278.94274
GTQ 8.937689
GYD 245.102601
HKD 9.173892
HNL 31.154888
HRK 7.533449
HTG 153.004142
HUF 358.756118
IDR 20493.686642
ILS 3.406471
IMP 0.86601
INR 112.076262
IQD 1534.690059
IRR 1537055.786892
ISK 143.607358
JEP 0.86601
JMD 185.279483
JOD 0.830654
JPY 184.825128
KES 151.294075
KGS 102.4511
KHR 4700.008666
KMF 492.045465
KPW 1054.402464
KRW 1744.329938
KWD 0.361279
KYD 0.976314
KZT 549.859231
LAK 25674.729191
LBP 104911.762799
LKR 380.218353
LRD 214.396927
LSL 19.289546
LTL 3.459242
LVL 0.70865
LYD 7.419181
MAD 10.739109
MDL 20.092398
MGA 4865.08562
MKD 61.638235
MMK 2459.387562
MNT 4193.718823
MOP 9.450368
MRU 46.830651
MUR 54.839614
MVR 18.037045
MWK 2031.73603
MXN 20.178837
MYR 4.604728
MZN 74.872647
NAD 19.289546
NGN 1606.164556
NIO 43.108148
NOK 10.740798
NPR 179.306246
NZD 1.97493
OMR 0.450452
PAB 1.171561
PEN 4.016559
PGK 5.177824
PHP 71.915939
PKR 326.358654
PLN 4.251412
PYG 7164.354077
QAR 4.27118
RON 5.205017
RSD 117.423061
RUB 85.931472
RWF 1718.076048
SAR 4.402015
SBD 9.406276
SCR 16.349392
SDG 703.505578
SEK 10.913155
SGD 1.490394
SHP 0.87467
SLE 28.849089
SLL 24566.535481
SOS 669.546549
SRD 43.645003
STD 24248.438627
STN 24.50505
SVC 10.250937
SYP 129.547282
SZL 19.282303
THB 37.884011
TJS 10.971455
TMT 4.100377
TND 3.412945
TOP 2.820778
TRY 53.208728
TTD 7.948638
TWD 36.938952
TZS 3047.629585
UAH 51.517398
UGX 4392.905262
USD 1.171536
UYU 46.539591
UZS 14228.932207
VES 590.786557
VND 30867.641665
VUV 138.216548
WST 3.166356
XAF 656.097805
XAG 0.013444
XAU 0.000249
XCD 3.166136
XCG 2.111381
XDR 0.814182
XOF 656.061397
XPF 119.331742
YER 279.586803
ZAR 19.272782
ZMK 10545.229685
ZMW 22.11284
ZWL 377.23425
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa / Foto: Stefani REYNOLDS - AFP

En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

Aplicaciones fotográficas que desnudan digitalmente a las mujeres, la posibilidad de crear desde una simple frase fotos de "chicas de inteligencia artificial (IA)" e imágenes manipuladas que alimentan la "extorsión sexual": el auge de la pornografía ultrafalsa está superando esfuerzos de EEUU y Europa para regular la tecnología.

Tamaño del texto:

Las falsificaciones de fotos y videos cada vez más realistas basadas en IA -llamadas "deepfakes"- generalmente se asocian a personalidades conocidas, como el papa Francisco con un abrigo acolchado o Donald Trump bajo arresto, pero los expertos afirman que su uso se está extendiendo para generar pornografía no consensuada que puede destruir vidas comunes y corrientes.

Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y sin necesidad de conocimientos técnicos, que permiten a los usuarios retirar digitalmente la ropa de sus fotos o insertar sus rostros en videos sexualmente explícitos.

"El aumento de la pornografía generada por IA y de la 'deepfake porn' normaliza el uso de la imagen de una mujer sin su consentimiento", explica a la AFP Sophie Maddocks, investigadora de la Universidad de Pensilvania que estudia los abusos sexuales basados en imágenes.

"¿Qué mensaje enviamos como sociedad sobre el consentimiento cuando se puede desnudar virtualmente a cualquier mujer?", comentó.

En un dramático video, una "streamer" estadounidense de Twitch conocida como QTCinderella lamentó la "constante explotación y cosificación" de las mujeres cuando se convirtió en víctima del "porno deepfake". Fue acosada, agregó, por personas que le enviaban copias de las manipulaciones en las que aparecía.

El escándalo estalló en enero durante una transmisión en vivo del también "streamer" Brandon Ewing, quien fue sorprendido mirando un sitio web que contenía imágenes sexuales falsas de varias mujeres, entre ellas QTCinderella.

"No es tan simple como 'sólo' ser violada. Es mucho más que eso", escribió la creadora de contenido en Twitter, ahora llamado X, añadiendo que la experiencia la había "arruinado".

- "Chicas hiperreales" -

La proliferación de "deepfakes" subraya la amenaza de la desinformación habilitada por la IA, que puede dañar la reputación y provocar intimidación o acoso.

Si bien celebridades como la cantante Taylor Swift y la actriz Emma Watson han sido víctimas de la pornografía falsa, las mujeres que no están en el ojo público también son el objetivo de estos ataques.

Los medios de comunicación estadounidenses y europeos están llenos de testimonios de primera mano de mujeres, desde académicas hasta activistas, que se sorprendieron al descubrir sus rostros en videos pornográficos falsos.

Alrededor del 96% de los videos "deepfake" en línea son pornografía no consensuada y en la mayoría de ellos aparecen mujeres, según un estudio de 2019 realizado por la empresa holandesa de IA Sensity.

"El acto de la fantasía sexual, que antes era privado y que tiene lugar dentro de la mente de alguien, se transfiere ahora a la tecnología y a los creadores de contenidos en el mundo real", dijo a la AFP Roberta Duffield, directora de inteligencia de Blackbird.AI.

Hay aplicaciones gratuitas que pueden crear "chicas hiperreales de IA", avatares a partir de fotos reales, personalizándolas con indicaciones como "piel oscura" u otras con connotaciones sexuales.

- "Rincón oscuro" -

Los avances tecnológicos han dado lugar a lo que Duffield denomina una "industria artesanal en expansión" en torno al porno potenciado con IA, en la que muchos creadores de "deepfakes" aceptan solicitudes pagas para generar contenidos con una persona que el cliente elige.

El mes pasado, el FBI emitió una advertencia sobre los "esquemas de sextorsión", en los que los estafadores capturan fotos y videos de las redes sociales para crear material falso de "temática sexual" que luego se utilizan para chantajear al usuario afectado.

El FBI añadió que entre las víctimas había menores de edad y adultos que no dieron su consentimiento.

La proliferación de herramientas de inteligencia artificial ha superado la regulación.

"Esto no es un rincón oscuro de Internet, donde se crean y comparten estas imágenes", dijo a la AFP Dan Purcell, director ejecutivo y fundador de la empresa de protección de marcas de inteligencia artificial Ceartas.

"Está justo delante de nuestras narices. Y sí, la ley debe ponerse al día", añadió.

En Estados Unidos, cuatro estados, incluidos California y Virginia, prohibieron la distribución de pornografía falsa, pero las víctimas suelen tener pocos recursos legales si los perpetradores viven fuera de estas jurisdicciones.

En mayo, un legislador estadounidense presentó la Ley de prevención de falsificaciones profundas de imágenes íntimas, que haría ilegal compartir pornografía falsificada sin consentimiento.

Espacios en línea populares, como Reddit, también han tratado de regular sus florecientes comunidades de pornografía con IA.

"Internet es una jurisdicción sin fronteras, y debe haber una ley internacional unificada para proteger a las personas contra esta forma de explotación", dijo Purcell.

burs-ac/st/tjj/db/arm

K.Nakajima--JT