The Japan Times - Real ou fabricado? A IA, mais um ator da guerra no Irã

EUR -
AED 4.239145
AFN 73.284685
ALL 95.890665
AMD 433.580115
ANG 2.066283
AOA 1058.488292
ARS 1604.021848
AUD 1.671256
AWG 2.07773
AZN 1.978181
BAM 1.956613
BBD 2.319684
BDT 141.318706
BGN 1.973046
BHD 0.435872
BIF 3422.147489
BMD 1.154295
BND 1.483384
BOB 7.958306
BRL 5.953963
BSD 1.151688
BTN 107.279565
BWP 15.800632
BYN 3.412677
BYR 22624.172391
BZD 2.316282
CAD 1.60758
CDF 2650.260593
CHF 0.921433
CLF 0.026807
CLP 1058.488195
CNY 7.948008
CNH 7.945419
COP 4227.55747
CRC 535.915663
CUC 1.154295
CUP 30.588805
CVE 110.310825
CZK 24.526914
DJF 205.086973
DKK 7.47267
DOP 69.618016
DZD 153.593143
EGP 62.593587
ERN 17.314418
ETB 179.840034
FJD 2.601545
FKP 0.871952
GBP 0.872145
GEL 3.09926
GGP 0.871952
GHS 12.66326
GIP 0.871952
GMD 85.417984
GNF 10102.978103
GTQ 8.81066
GYD 241.050136
HKD 9.046033
HNL 30.593914
HRK 7.53304
HTG 151.15821
HUF 385.033983
IDR 19634.549611
ILS 3.609938
IMP 0.871952
INR 106.895864
IQD 1508.826787
IRR 1522658.744973
ISK 144.400193
JEP 0.871952
JMD 181.574642
JOD 0.818406
JPY 184.164802
KES 149.826612
KGS 100.942921
KHR 4605.793606
KMF 492.883944
KPW 1038.847705
KRW 1742.014777
KWD 0.357069
KYD 0.959799
KZT 545.756715
LAK 25360.303981
LBP 103311.712528
LKR 363.377248
LRD 211.337793
LSL 19.571154
LTL 3.408332
LVL 0.698221
LYD 7.365123
MAD 10.820395
MDL 20.264945
MGA 4814.958486
MKD 61.665617
MMK 2423.701625
MNT 4130.953184
MOP 9.297963
MRU 45.753015
MUR 54.182845
MVR 17.845191
MWK 1997.012286
MXN 20.609578
MYR 4.652917
MZN 73.817219
NAD 19.57073
NGN 1591.483252
NIO 42.376686
NOK 11.259479
NPR 171.645073
NZD 2.021481
OMR 0.443878
PAB 1.151678
PEN 3.984555
PGK 4.981983
PHP 69.726338
PKR 321.355487
PLN 4.28002
PYG 7450.159441
QAR 4.199344
RON 5.09702
RSD 117.475262
RUB 92.54245
RWF 1682.084188
SAR 4.333509
SBD 9.279111
SCR 16.651629
SDG 693.73104
SEK 10.895859
SGD 1.483984
SHP 0.86602
SLE 28.453219
SLL 24204.991218
SOS 658.170562
SRD 43.114092
STD 23891.56584
STN 24.509757
SVC 10.077186
SYP 128.483664
SZL 19.563212
THB 37.629422
TJS 11.039086
TMT 4.051574
TND 3.39531
TOP 2.779264
TRY 51.472527
TTD 7.813347
TWD 36.865278
TZS 3001.165881
UAH 50.440517
UGX 4320.794917
USD 1.154295
UYU 46.639375
UZS 13992.812806
VES 546.432051
VND 30404.117387
VUV 137.766047
WST 3.201852
XAF 656.223919
XAG 0.015806
XAU 0.000247
XCD 3.119539
XCG 2.075662
XDR 0.816132
XOF 656.235294
XPF 119.331742
YER 275.47212
ZAR 19.58965
ZMK 10390.084943
ZMW 22.256438
ZWL 371.682361
Real ou fabricado? A IA, mais um ator da guerra no Irã
Real ou fabricado? A IA, mais um ator da guerra no Irã / foto: Ronen Zvulun - POOL/AFP/Arquivos

Real ou fabricado? A IA, mais um ator da guerra no Irã

"Netanyahu é real ou foi gerado por IA?", pergunta uma manchete online sobre um vídeo que mostra o primeiro-ministro israelense supostamente com seis dedos.

Tamanho do texto:

O vídeo era autêntico. Mas logo as redes se encheram de mensagens que afirmavam, sem qualquer prova, que Netanyahu havia morrido em um ataque iraniano e que Israel tentava ocultar a realidade usando um sósia criado por inteligência artificial.

"Da última vez que eu verifiquei, em princípio os humanos não têm seis dedos... Exceto para a IA", diz um comentário visto por mais de cinco milhões de usuários no X, a plataforma de Elon Musk. "Netanyahu morreu?".

Especialistas em investigação digital explicaram rapidamente o "dedo a mais": tratava-se de uma sombra fugaz que fazia com que uma parte da palma da mão parecesse um dedo adicional.

Mas a demonstração se perdeu no turbilhão das redes sociais. E não importa que os geradores de imagens com IA, capazes agora de produzir em poucos segundos os "deepfakes" – vídeos ultrarrealistas modificados – tenham feito desaparecer quase por completo aquele antigo defeito do "dedo a mais". Como demonstrar que o real é real quando a fronteira entre realidade e invenção se tornou tão difusa na confusão da guerra com o Irã e até mesmo as imagens autênticas são postas em dúvida?

Alguns dias depois da divulgação do primeiro vídeo, Netanyahu publicou outro, uma espécie de prova de vida filmada em uma cafeteria, no qual mostrou as mãos para calar os rumores.

Mas, em vez de frear as especulações, as imagens alimentaram uma nova onda de teorias infundadas. "Mais IA", reclamou uma publicação que viralizou no Threads, que apontava desta vez para outra suposta prova de manipulação: a xícara de café do líder israelense continuava cheia depois de ele beber e não transbordava apesar de sua movimentação.

Um terceiro vídeo de Netanyahu, ao lado do embaixador americano em Israel, Mike Huckabee, também não pôs fim aos rumores. Alguns detetives online deram zoom nas orelhas do primeiro-ministro, afirmando que sua forma e tamanho não coincidiam com imagens dele divulgadas no passado.

– "Rumores" –

"Desde o início da guerra no Oriente Médio, em 28 de fevereiro, a rede mundial da AFP produziu mais de 500 matérias de verificação de fatos que revelam informações falsas sobre esse conflito, das quais entre 20% e 25% foram criadas com ajuda da IA, um nível jamais alcançado durante uma crise dessa magnitude.

A invasão da Ucrânia pela Rússia ou a guerra entre Israel e Gaza desencadearam ondas de imagens, vídeos e áudios gerados por IA.

O que distingue esta guerra é a magnitude e o realismo dos conteúdos artificiais, produzidos por ferramentas avançadas, de baixo custo, acessíveis e capazes de eliminar grande parte dos antigos indícios de manipulação, explicam pesquisadores.

"As plataformas tecnológicas estão saturadas do que muitos chamam de 'ruído digital'. Acho que todos devemos começar a tratar fotos, vídeos e áudios da mesma forma que tratamos os rumores", diz Thomas Nowotny, diretor de um grupo de pesquisas sobre IA da Universidade de Sussex, no Reino Unido.

Essas imagens geradas por IA alcançaram tal nível de semelhança com a realidade que chegam a ofuscar fotos e vídeos autênticos, gerando uma crise de confiança. Agora, "o problema da desinformação, em geral, não é tanto que as pessoas acreditem nela", explica Constance de Saint Laurent, professora na Universidade de Maynooth, na Irlanda. "O problema é que veem informações reais e já não confiam nelas", acrescentou.

– "Prejudiciais" –

O volume de conteúdos falsos gerados por IA supera em muito a capacidade de verificação dos profissionais de checagem de fatos.

As redações mais sólidas não estão a salvo de serem enganadas.

A revista alemã Der Spiegel anunciou recentemente ter retirado várias imagens relacionadas com o Irã após determinar que provavelmente haviam sido geradas por inteligência artificial.

E mesmo quando demonstrado que esses conteúdos são invenções, eles ressurgem regularmente, um padrão que alguns pesquisadores qualificam de desinformação "zumbi".

Os algoritmos priorizam conteúdos em função das interações (vezes em que são compartilhados, comentados, "curtidos”...), frequentemente impulsionados pelo sensacionalismo, pela indignação e pela desinformação.

As plataformas de redes sociais "agem como editoras, por meio do que decidem mostrar prioritariamente no seu feed de notícias. E, muito frequentemente, isso inclui conteúdos prejudiciais e desinformação", ressalta Constance de Saint Laurent.

Os incentivos financeiros aceleram o fenômeno. A maioria das plataformas permite que criadores enriqueçam em função das interações, incentivando influenciadores a divulgar conteúdos enganosos ou completamente fabricados para obter cliques, visibilidade e dinheiro.

Segundo o Instituto para o Diálogo Estratégico (ISD, na sigla em inglês), com sede em Londres, várias contas no X que publicam conteúdos de IA sobre a guerra entre Irã, Estados Unidos e Israel acumularam mais de 1 bilhão de visualizações desde o início do conflito. Outro exemplo viral: uma conta no X publicou um vídeo gerado por IA que parecia mostrar a torre Burj Khalifa, em Dubai, desabando em uma nuvem de poeira.

"Dez milhões de visualizações e nenhuma nota da comunidade", comentou, 20 horas após a publicação daquele clipe, o analista de guerra da informação Tal Hagin.

Quando uma nota da comunidade — um sistema de verificação participativa, cuja eficácia é frequentemente questionada por pesquisadores — foi acrescentada, o vídeo já havia sido visto mais de 12 milhões de vezes.

Os conteúdos modificados continuaram a proliferar no X mesmo depois de a plataforma ameaçar sancionar criadores que publicassem vídeos de guerra gerados por IA sem indicá-lo.

– "Legoficação" –

Os memes gerados por IA, que banalizam os conflitos, ao mesmo tempo em que difundem desinformação, ocupam cada vez mais espaço, um fenômeno batizado pelo ISD como "Legoficação" da propaganda de guerra.

Um filme iraniano falso, gerado por IA com personagens de Lego, viralizou já na primeira semana do conflito, acusando Donald Trump de ter atacado Teerã para desviar a atenção de seu suposto papel no escândalo do criminoso sexual Jeffrey Epstein.

Vídeos ultrarrealistas foram utilizados para representar vitórias militares iranianas fictícias, líderes mundiais em situações absurdas ou o estratégico Estreito de Ormuz reimaginado como uma barreira de pedágio caricatural.

O presidente dos Estados Unidos advertiu que a IA era uma "arma de desinformação que o Irã usa muito bem neste conflito".

"Os prédios e navios que aparecem em chamas não estão, é FAKE NEWS gerada por IA", escreveu em sua plataforma, Truth Social.

No entanto, ele próprio compartilhou imagens e vídeos gerados por IA para se representar como rei ou como o Super-Homem, retratar seus opositores como criminosos ou usar memes de IA para alimentar teorias da conspiração e narrativas falaciosas.

"Consideramos que as plataformas tecnológicas atualmente não estão fazendo o suficiente para ajudar os usuários a determinar se um conteúdo é gerado por IA ou autêntico", avaliou, em março, o Conselho de Supervisão da Meta, órgão criado pelo Facebook para examinar decisões de moderação de conteúdo.

"Os conteúdos falsos podem ser prejudiciais, ao incitar mais violência e alimentar ainda mais o conflito", acrescentou.

A AFP trabalha em 26 idiomas com o programa de checagem de fatos do Facebook, especialmente na Ásia, na América Latina e na União Europeia.

A Meta encerrou seu programa de verificação por terceiros nos Estados Unidos no ano passado porque, segundo seu diretor-geral, Mark Zuckerberg, havia gerado "censura demais", uma afirmação refutada pelos defensores do programa. Como alternativa, Zuckerberg informou que as plataformas da Meta, Facebook e Instagram, usariam o modelo das notas da comunidade, uma decisão que poderia enfraquecer ainda mais as salvaguardas contra a desinformação, segundo seus críticos.

– "Bem real" –

As ferramentas de detecção de IA deveriam dissipar o ruído da guerra da informação, mas, às vezes, só o tornam mais confuso. No caso de Netanyahu, partidários das teorias da conspiração esgrimiram uma ferramenta de detecção de IA que classificou erroneamente seu vídeo gravado em um café como "gerado por IA em 96,9%".

Outras ferramentas chegaram à conclusão oposta. O problema não se limita aos vídeos. As redes sociais estão repletas de imagens de satélite fabricadas ou mapas de calor manipulados, usados para semear dúvidas sobre as provas do conflito, segundo os pesquisadores.

Os relatos falsos já não se limitam a fabricar conteúdo, mas também rotulam como invenções reportagens completamente reais, destaca a NewsGuard: "Quando tudo pode ser falso, fica fácil acreditar que qualquer coisa é", analisa Sofia Rubinson, integrante desse observatório da desinformação.

Usuários de redes sociais acusaram falsamente grandes meios de comunicação, como o New York Times, de terem publicado imagens do conflito geradas por IA, entre elas uma que mostrava uma enorme multidão em Teerã comemorando a nomeação do novo guia supremo, Mojtaba Khamenei.

Quando informações verídicas, porém comprometedoras, são descartadas como geradas por IA, os pesquisadores chamam isso de "dividendo do mentiroso". Nessas circunstâncias, "fica mais fácil negar atrocidades", advertiu um relatório da Tech Policy Press.

"É isso que os mal-intencionados buscam: que as pessoas pensem que tudo pode ter sido manipulado, para que não possam confiar em nada", insiste Hannah Covington, diretora sênior de conteúdos educacionais no News Literacy Project.

Imagens falsas de fatos reais contaminam ainda mais o panorama informativo. Após um ataque mortal contra uma escola na cidade de Minab, em 28 de fevereiro, uma conta oficial iraniana no X publicou uma foto mostrando a mochila de uma criança manchada de sangue e poeira. A AFP determinou que era muito provável que a imagem tivesse sido gerada por IA.

Mas poucos internautas pareceram incomodados com o uso de uma imagem manipulada para ilustrar a morte de estudantes reais, sinal de uma resignação crescente diante de uma era em que a pergunta "É real?" se tornou cada vez mais difícil de responder.

"Provavelmente modificada por IA, mas o significado é real", escreveu um usuário do Reddit.

H.Hayashi--JT