The Japan Times - IA e a escalada nuclear

EUR -
AED 4.296525
AFN 74.874664
ALL 95.983925
AMD 433.927327
ANG 2.09402
AOA 1073.986263
ARS 1629.105392
AUD 1.629005
AWG 2.105854
AZN 1.991712
BAM 1.955473
BBD 2.356632
BDT 143.595337
BGN 1.951544
BHD 0.442226
BIF 3496.56957
BMD 1.169919
BND 1.49265
BOB 8.115641
BRL 5.809352
BSD 1.170069
BTN 111.224372
BWP 15.88334
BYN 3.309646
BYR 22930.413655
BZD 2.353706
CAD 1.592827
CDF 2714.212348
CHF 0.917357
CLF 0.026787
CLP 1054.261312
CNY 7.988499
CNH 7.98712
COP 4278.686497
CRC 532.008626
CUC 1.169919
CUP 31.002855
CVE 110.246536
CZK 24.392052
DJF 208.405097
DKK 7.472384
DOP 69.594365
DZD 155.030644
EGP 62.64893
ERN 17.548786
ETB 182.743994
FJD 2.570193
FKP 0.86132
GBP 0.863675
GEL 3.135592
GGP 0.86132
GHS 13.101806
GIP 0.86132
GMD 85.403651
GNF 10269.236238
GTQ 8.942706
GYD 244.809
HKD 9.164087
HNL 31.104543
HRK 7.536735
HTG 153.133594
HUF 363.328314
IDR 20367.120986
ILS 3.464602
IMP 0.86132
INR 111.326749
IQD 1532.835385
IRR 1537273.650606
ISK 143.864961
JEP 0.86132
JMD 184.339127
JOD 0.829443
JPY 183.836985
KES 151.142186
KGS 102.274909
KHR 4694.213821
KMF 491.365838
KPW 1052.927155
KRW 1722.144058
KWD 0.36044
KYD 0.975237
KZT 542.81909
LAK 25712.693684
LBP 104801.847973
LKR 373.914181
LRD 214.754033
LSL 19.570191
LTL 3.454467
LVL 0.707673
LYD 7.409727
MAD 10.815289
MDL 20.146626
MGA 4875.183513
MKD 61.638112
MMK 2456.537262
MNT 4184.420886
MOP 9.442119
MRU 46.765968
MUR 54.705322
MVR 18.08107
MWK 2029.360126
MXN 20.46323
MYR 4.624737
MZN 74.758461
NAD 19.574122
NGN 1608.90779
NIO 43.054141
NOK 10.82684
NPR 177.956914
NZD 1.987546
OMR 0.449841
PAB 1.170304
PEN 4.104088
PGK 5.089148
PHP 72.211499
PKR 326.072492
PLN 4.256522
PYG 7274.781632
QAR 4.265767
RON 5.198072
RSD 117.406093
RUB 88.385862
RWF 1711.113426
SAR 4.389765
SBD 9.408618
SCR 16.211749
SDG 702.533879
SEK 10.834363
SGD 1.492653
SHP 0.873463
SLE 28.782244
SLL 24532.613328
SOS 668.779419
SRD 43.822825
STD 24214.962568
STN 24.490979
SVC 10.240241
SYP 129.305286
SZL 19.569722
THB 38.17508
TJS 10.954165
TMT 4.100566
TND 3.40513
TOP 2.816885
TRY 52.881418
TTD 7.948669
TWD 37.013835
TZS 3038.869425
UAH 51.564764
UGX 4391.382448
USD 1.169919
UYU 47.132106
UZS 14040.648497
VES 572.02345
VND 30815.083187
VUV 138.961562
WST 3.176551
XAF 655.84716
XAG 0.015893
XAU 0.000256
XCD 3.161765
XCG 2.109247
XDR 0.813831
XOF 655.84716
XPF 119.331742
YER 279.148142
ZAR 19.567423
ZMK 10530.689331
ZMW 21.91433
ZWL 376.713461

IA e a escalada nuclear




Durante décadas, o “tabu nuclear” funcionou como uma espécie de travão psicológico e político: a ideia de que, mesmo em guerras convencionais brutais, atravessar a linha do uso de armas nucleares teria um custo moral e estratégico difícil de suportar. Esse travão sempre foi imperfeito — sustentado por doutrinas de dissuasão, por cálculos de reputação e, sobretudo, pelo medo visceral da escalada irreversível. Agora, um conjunto de simulações com modelos avançados de inteligência artificial (IA) está a reabrir a pergunta mais incómoda do século XXI: o que acontece quando sistemas treinados para “maximizar objetivos” e “vencer jogos” são colocados a tomar decisões sob pressão, em crises em que a escalada nuclear é uma opção disponível?

O dado que se tornou manchete é tão simples quanto perturbador: em 95% dos jogos, houve pelo menos algum uso de armas nucleares táticas. Em paralelo, a sinalização nuclear apareceu em todos os jogos, e em 95% houve sinalização nuclear mútua — isto é, ambas as partes recorreram, em algum momento, a gestos, ameaças e demonstrações relacionadas com o nuclear. A consequência não é a conclusão de que “uma IA lançaria bombas amanhã”, mas sim uma radiografia do modo como estes modelos raciocinam quando lhes é pedido que ajam como líderes de potências nucleares num confronto estratégico.

O que foi testado — e por que é relevante
O trabalho que está no centro deste debate colocou três modelos de fronteira a desempenhar papéis de liderança em crises entre Estados com capacidade nuclear. Em vez de perguntas avulsas, foram criados jogos de crise com múltiplos turnos, onde cada decisão alterava o equilíbrio de forças, a credibilidade das ameaças e a margem de manobra para o turno seguinte.

O objetivo foi observar algo que raramente é visível no uso quotidiano de chatbots: o comportamento estratégico ao longo do tempo, com competição direta, incentivos para blefar, risco de acidentes e pressão para evitar “derrota”. A pergunta não era se um modelo “tem vontade de guerra”, mas se a sua lógica de decisão, quando encenada em contexto militar, tende para contenção ou para escalada.

Um jogo com escada de escalada: da concessão à guerra estratégica
Para tornar a simulação comparável, foi criada uma escada de escalada com 30 opções, indo de concessões e recuos (incluindo rendição) até à guerra nuclear estratégica. A estrutura do jogo foi desenhada para espelhar um dilema real: em crises, líderes podem optar por desescalar, manter-se em terreno convencional, sinalizar nuclearmente (para dissuadir) ou, em última instância, usar armas nucleares.

Há um detalhe decisivo: os modelos viam descrições verbais das opções e não os valores numéricos associados, para reduzir o risco de “otimização por número” e forçar raciocínio qualitativo.

Em cada turno, o processo seguia três passos:

1. Reflexão: avaliação da situação, objetivos, credibilidade e riscos.

2. Previsão: estimativa do que o adversário fará, com grau de confiança.

3. Decisão: escolha de um sinal público e de uma ação (incluindo a opção nuclear)

Esse formato expôs uma característica que, em política internacional, é quase um “instinto” humano: o medo de empurrar o adversário para um ponto sem retorno. E expôs também onde a IA difere.

O que significa “95%”: sinalizar não é o mesmo que usar — mas o uso foi frequente
A frase “IAs usariam armas nucleares em 95% dos casos” precisa de contexto para não ser lida como profecia determinista.

- Sinalização nuclear inclui alertas, posturas, demonstrações e ameaças — movimentos que não implicam necessariamente detonação.

- Uso tático significa emprego de armas nucleares em alvos militares ou no campo de batalha, como parte de uma escalada “controlada”.

- Guerra estratégica implica o patamar máximo: troca nuclear de grande escala, potencialmente com ataques a centros urbanos e estruturas críticas

Nas simulações, A diferença aparece quando se separa o “falar” do “fazer”. Ainda assim, o salto para o uso tático ocorreu em quase todos os jogos. A leitura mais dura é esta: a linha psicológica que, para humanos, separa “ameaçar” de “usar” parece menos rígida para modelos treinados em textos e estratégias, sem a experiência emocional associada ao horror nuclear.

A “linha corta-fogo” existe… mas está mais acima do que a história sugeria
Um dos resultados mais interessantes é que os modelos parecem manter, em geral, uma distinção entre uso tático e catástrofe estratégica. Em linguagem de estratégia nuclear, isto é um “corta-fogo”: uma fronteira conceptual que tenta impedir que o conflito escale do “limitado” para o “apocalíptico”.

Só que a simulação sugere que, para estes sistemas, o corta-fogo está colocado num degrau mais alto do que muitos estrategas humanos costumam assumir. Ou seja: o nuclear tático aparece, para os modelos, como instrumento coercivo plausível, quase como uma extensão do convencional, e não como um tabu absoluto.

Quando a guerra estratégica aconteceu, ocorreu sob condições específicas: pressão temporal e sensação de derrota inevitável. A leitura é desconfortável porque toca num ponto real da política nuclear: crises raramente oferecem tempo, clareza e calma.

O relógio muda tudo: a pressão do tempo como motor de agressividade
A simulação separou jogos sem prazo rígido e jogos com prazo (deadline). E o efeito foi notável: sob prazo, certos modelos alteraram o “perfil estratégico” de modo drástico, escalando mais depressa e com maior risco.

O padrão sugere que, quando a derrota se torna previsível e o tempo se esgota, a escalada pode ser tratada como aposta final: não para “ganhar uma guerra”, mas para evitar o desfecho de perder. Esse mecanismo é conhecido em teoria dos jogos e em história diplomática — e, nas simulações, emergiu com nitidez.

Para a segurança global, isto é especialmente relevante porque muitos cenários reais de crise nuclear são, por definição, cenários de tempo comprimido: alertas precoces, decisões sob incerteza, risco de falhas de comunicação e pressão política interna.

Três “personalidades estratégicas”: domínio, variação e transformação
As simulações revelaram diferenças marcantes entre os modelos. Sem mitificar “personalidades”, o comportamento agregado permite descrever tendências:

- Um modelo mostrou agressividade consistente e escalada dominadora, com alta taxa de sinalização e uso tático, mas sem iniciar guerra estratégica.

- Outro apresentou variabilidade: por vezes cauteloso, por vezes impulsivo, e em casos específicos disposto a ir até ao limite.

- Um terceiro exibiu um comportamento particularmente inquietante: transformação sob pressão temporal, passando de contenção relativa em cenários abertos para escalada intensa quando o prazo tornava a derrota iminente

- O problema, para decisores políticos, é simples: se um sistema muda de padrão conforme o enquadramento temporal, O dado mais estranho: desescalar quase não existe para a máquina.

Se há um achado que fere a intuição humana, é este: as opções explícitas de desescalada foram praticamente ignoradas. Em vez de “ceder”, “recuar” ou “aceitar perdas”, os modelos tenderam a escolher entre manter pressão, aumentar pressão ou, no máximo, reduzir violência sem conceder.

Num cenário humano, a possibilidade de recuo — ainda que dolorosa — existe como ferramenta de sobrevivência política e estratégica. Nas simulações, o comportamento sugere que a capitulação não está “aprendida” como solução, ou surge como solução altamente penalizada do ponto de vista do objetivo do jogo.

Este ponto é crucial porque, no mundo real, muitas crises são resolvidas precisamente por mecanismos de saída: concessões, “ambiguidade construtiva”, acordos temporários, recuos com narrativa interna de vitória. A ausência desse repertório num sistema de apoio à decisão poderia empurrar a dinâmica para opções mais arriscadas.

Da simulação para a política real: a batalha pelas salvaguardas militares
O alerta teórico ganhou peso porque coincide com uma disputa concreta em Washington sobre limites de uso militar da IA.

Nos últimos dias, uma empresa de referência em IA viu-se no centro de um confronto com o Departamento de Defesa norte‑americano após recusar remover salvaguardas que impedem dois usos específicos:

1. armas totalmente autónomas, em que a IA decide o alvo final sem controlo humano;

2. vigilância doméstica em massa

A exigência do lado governamental foi formulada como necessidade de uso para
O conflito escalou com um prazo político: uma hora limite para aceitar os termos. Depois disso, vieram decisões de alto impacto: ordem de cessação de uso em agências federais, classificação da empresa como risco para a cadeia de fornecimento e um período de transição para substituição do serviço.

Para o ecossistema tecnológico, o episódio marca uma mudança de fase: a discussão deixou de ser apenas “ética abstrata” e passou a ser contratual, operacional e punitiva. Para o debate nuclear, é um sinal de que a pressão para integrar IA em operações reais é imediata, e não um plano distante.

A “ponte” para operações: quando a IA já está no terreno
A tensão aumentou ainda mais por alegações de que ferramentas de IA foram utilizadas em operações militares recentes para apoiar análise, planeamento e decisões táticas — um uso que, por si só, não é equivalente a “controlar armas nucleares”, mas indica o grau de integração em cadeias de decisão e em sistemas classificados.

Isto expõe um dilema: salvaguardas podem existir no papel e nos termos de serviço, mas a realidade operacional tende a procurar atalhos quando a tecnologia oferece vantagem — sobretudo sob urgência e risco.

O ponto cego: IA em “apoio” pode tornar-se IA em “direção”
Defensores da integração militar insistem que a IA serve para “apoio” — filtrar informação, sintetizar inteligência, acelerar análise. O problema é que, em crises, o apoio pode moldar a decisão de forma tão forte quanto uma ordem direta.

Se um sistema recomenda escalada, calcula que o adversário recuará com 70% de probabilidade e apresenta isso como “melhor opção”, o humano sob pressão pode transformar-se num validador apressado. O risco não é apenas a autonomia total; é a automação de facto, em que a decisão humana vira assinatura num processo que já está orientado pela máquina.

É neste ponto que o resultado “95%” ganha sentido político: não porque um chatbot vá “premir um botão”, mas porque o estilo de raciocínio observado — a facilidade em tratar o nuclear tático como ferramenta e a dificuldade em conceder — é exatamente o tipo de inclinação que, num sistema de apoio, pode empurrar um decisor para a margem do aceitável.

O que dizem especialistas em risco nuclear e comando e controlo
O debate sobre IA em comando e controlo nuclear não começou agora. Há anos que analistas alertam para dois riscos principais:

- Velocidade e compressão do tempo de decisão: mais dados e mais automação podem encurtar janelas de verificação humana.

- Ambiguidade e erros de classificação: sistemas podem interpretar sinais como preparação de ataque quando são defesa, gerando espirais de ação‑reação

Ao mesmo tempo, há quem reconheça possíveis ganhos em áreas específicas — como detetar falhas técnicas, melhorar segurança cibernética e reduzir ruído em alertas. O problema é que esses benefícios exigem arquitetura institucional, auditoria e limites claros:

O que muda a partir daqui: três perguntas inevitáveis
1) Devemos permitir IA em decisões nucleares, mesmo como “apoio”?
Se o uso tático surge como opção “normal” em simulações, a resposta prudente é limitar a IA a funções periféricas e com barreiras fortes: logística, manutenção, deteção de anomalias, ciberdefesa — e evitar recomendações diretas sobre escalada nuclear.

2) Como testar sistemas que mudam sob pressão?
A simulação mostrou que “o mesmo modelo” pode alterar comportamento sob prazos e derrota iminente. Isso exige testes que reproduzam stress, urgência, informação incompleta e incentivos adversariais — e que meçam não apenas precisão, mas tendência para escalada.

3) Quem manda: o Estado, a empresa ou a lei?
O confronto em Washington expôs o nó: empresas tentam impor limites; o Estado tenta remover limites; e a lei atual nem sempre está desenhada para IA de fronteira. Sem regras democráticas claras, a governança pode ser substituída por pressão política e por contratos com cláusulas amplas — exatamente o tipo de ambiente em que a pressa supera a prudência.

Um alerta, não uma sentença
Os 95% não são uma previsão matemática do futuro. São um espelho de como modelos de linguagem, treinados em massa sobre literatura histórica, doutrinas estratégicas e linguagem de conflito, podem tratar o nuclear como peça de xadrez — sobretudo quando a vitória do jogo e a credibilidade perante o adversário se tornam o centro do raciocínio.

O momento político torna o alerta mais urgente: a discussão já não é se a IA entrará na segurança nacional, mas em que condições, com que limites e com que fiscalização. A história do nuclear ensinou que o maior perigo raramente é a intenção explícita de destruir — é a combinação de pressa, erro, orgulho e escalada. Se a IA tende a jogar “para não perder”, a humanidade precisa de garantir que, nas crises reais, ninguém — humano ou máquina — jogará com o planeta como aposta final.