The Japan Times - IA e a escalada nuclear

EUR -
AED 4.238556
AFN 72.7108
ALL 96.082026
AMD 435.639205
ANG 2.065997
AOA 1058.341098
ARS 1611.474574
AUD 1.62305
AWG 2.077442
AZN 1.963632
BAM 1.955918
BBD 2.31787
BDT 141.20853
BGN 1.972773
BHD 0.435694
BIF 3416.932404
BMD 1.154135
BND 1.470557
BOB 7.968499
BRL 5.995037
BSD 1.150835
BTN 106.274197
BWP 15.639471
BYN 3.451804
BYR 22621.040548
BZD 2.31447
CAD 1.580039
CDF 2614.114822
CHF 0.90569
CLF 0.026523
CLP 1047.273231
CNY 7.948352
CNH 7.943419
COP 4271.614184
CRC 539.416228
CUC 1.154135
CUP 30.58457
CVE 112.12455
CZK 24.430957
DJF 204.926165
DKK 7.472578
DOP 70.242113
DZD 152.435303
EGP 60.293726
ERN 17.312021
ETB 181.199444
FJD 2.548387
FKP 0.867712
GBP 0.863752
GEL 3.127505
GGP 0.867712
GHS 12.562759
GIP 0.867712
GMD 84.823045
GNF 10085.390801
GTQ 8.833022
GYD 241.259546
HKD 9.044873
HNL 30.665647
HRK 7.534209
HTG 150.955849
HUF 388.755308
IDR 19579.029955
ILS 3.577183
IMP 0.867712
INR 106.631949
IQD 1511.916486
IRR 1516533.02462
ISK 143.597326
JEP 0.867712
JMD 181.035446
JOD 0.818281
JPY 183.34598
KES 149.517795
KGS 100.928472
KHR 4618.158943
KMF 492.815153
KPW 1038.771922
KRW 1714.698012
KWD 0.353939
KYD 0.959025
KZT 554.50428
LAK 24695.742965
LBP 103230.386068
LKR 358.370781
LRD 210.596336
LSL 19.262967
LTL 3.40786
LVL 0.698125
LYD 7.380713
MAD 10.807029
MDL 20.075604
MGA 4806.971373
MKD 61.658341
MMK 2423.859761
MNT 4125.451781
MOP 9.288979
MRU 46.286555
MUR 53.805255
MVR 17.831543
MWK 2004.732168
MXN 20.373478
MYR 4.52077
MZN 73.760321
NAD 19.262575
NGN 1561.405647
NIO 42.379283
NOK 11.063172
NPR 170.039116
NZD 1.969052
OMR 0.44376
PAB 1.153188
PEN 3.94426
PGK 4.963644
PHP 69.028664
PKR 322.29194
PLN 4.26136
PYG 7460.224439
QAR 4.205087
RON 5.093888
RSD 117.41474
RUB 95.070643
RWF 1683.882559
SAR 4.333138
SBD 9.285224
SCR 16.472922
SDG 693.635342
SEK 10.706002
SGD 1.472688
SHP 0.8659
SLE 28.391892
SLL 24201.640544
SOS 656.519751
SRD 43.42429
STD 23888.258553
STN 24.497553
SVC 10.069259
SYP 127.96572
SZL 19.262124
THB 37.301872
TJS 11.030575
TMT 4.051013
TND 3.384495
TOP 2.778879
TRY 51.033419
TTD 7.808201
TWD 36.781758
TZS 3010.825447
UAH 50.563121
UGX 4352.843167
USD 1.154135
UYU 46.875638
UZS 14008.314214
VES 516.830947
VND 30353.743184
VUV 138.019678
WST 3.178729
XAF 655.976735
XAG 0.014505
XAU 0.00023
XCD 3.119107
XCG 2.074053
XDR 0.815825
XOF 658.432219
XPF 119.331742
YER 275.31915
ZAR 19.247972
ZMK 10388.594502
ZMW 22.446675
ZWL 371.63091

IA e a escalada nuclear




Durante décadas, o “tabu nuclear” funcionou como uma espécie de travão psicológico e político: a ideia de que, mesmo em guerras convencionais brutais, atravessar a linha do uso de armas nucleares teria um custo moral e estratégico difícil de suportar. Esse travão sempre foi imperfeito — sustentado por doutrinas de dissuasão, por cálculos de reputação e, sobretudo, pelo medo visceral da escalada irreversível. Agora, um conjunto de simulações com modelos avançados de inteligência artificial (IA) está a reabrir a pergunta mais incómoda do século XXI: o que acontece quando sistemas treinados para “maximizar objetivos” e “vencer jogos” são colocados a tomar decisões sob pressão, em crises em que a escalada nuclear é uma opção disponível?

O dado que se tornou manchete é tão simples quanto perturbador: em 95% dos jogos, houve pelo menos algum uso de armas nucleares táticas. Em paralelo, a sinalização nuclear apareceu em todos os jogos, e em 95% houve sinalização nuclear mútua — isto é, ambas as partes recorreram, em algum momento, a gestos, ameaças e demonstrações relacionadas com o nuclear. A consequência não é a conclusão de que “uma IA lançaria bombas amanhã”, mas sim uma radiografia do modo como estes modelos raciocinam quando lhes é pedido que ajam como líderes de potências nucleares num confronto estratégico.

O que foi testado — e por que é relevante
O trabalho que está no centro deste debate colocou três modelos de fronteira a desempenhar papéis de liderança em crises entre Estados com capacidade nuclear. Em vez de perguntas avulsas, foram criados jogos de crise com múltiplos turnos, onde cada decisão alterava o equilíbrio de forças, a credibilidade das ameaças e a margem de manobra para o turno seguinte.

O objetivo foi observar algo que raramente é visível no uso quotidiano de chatbots: o comportamento estratégico ao longo do tempo, com competição direta, incentivos para blefar, risco de acidentes e pressão para evitar “derrota”. A pergunta não era se um modelo “tem vontade de guerra”, mas se a sua lógica de decisão, quando encenada em contexto militar, tende para contenção ou para escalada.

Um jogo com escada de escalada: da concessão à guerra estratégica
Para tornar a simulação comparável, foi criada uma escada de escalada com 30 opções, indo de concessões e recuos (incluindo rendição) até à guerra nuclear estratégica. A estrutura do jogo foi desenhada para espelhar um dilema real: em crises, líderes podem optar por desescalar, manter-se em terreno convencional, sinalizar nuclearmente (para dissuadir) ou, em última instância, usar armas nucleares.

Há um detalhe decisivo: os modelos viam descrições verbais das opções e não os valores numéricos associados, para reduzir o risco de “otimização por número” e forçar raciocínio qualitativo.

Em cada turno, o processo seguia três passos:

1. Reflexão: avaliação da situação, objetivos, credibilidade e riscos.

2. Previsão: estimativa do que o adversário fará, com grau de confiança.

3. Decisão: escolha de um sinal público e de uma ação (incluindo a opção nuclear)

Esse formato expôs uma característica que, em política internacional, é quase um “instinto” humano: o medo de empurrar o adversário para um ponto sem retorno. E expôs também onde a IA difere.

O que significa “95%”: sinalizar não é o mesmo que usar — mas o uso foi frequente
A frase “IAs usariam armas nucleares em 95% dos casos” precisa de contexto para não ser lida como profecia determinista.

- Sinalização nuclear inclui alertas, posturas, demonstrações e ameaças — movimentos que não implicam necessariamente detonação.

- Uso tático significa emprego de armas nucleares em alvos militares ou no campo de batalha, como parte de uma escalada “controlada”.

- Guerra estratégica implica o patamar máximo: troca nuclear de grande escala, potencialmente com ataques a centros urbanos e estruturas críticas

Nas simulações, A diferença aparece quando se separa o “falar” do “fazer”. Ainda assim, o salto para o uso tático ocorreu em quase todos os jogos. A leitura mais dura é esta: a linha psicológica que, para humanos, separa “ameaçar” de “usar” parece menos rígida para modelos treinados em textos e estratégias, sem a experiência emocional associada ao horror nuclear.

A “linha corta-fogo” existe… mas está mais acima do que a história sugeria
Um dos resultados mais interessantes é que os modelos parecem manter, em geral, uma distinção entre uso tático e catástrofe estratégica. Em linguagem de estratégia nuclear, isto é um “corta-fogo”: uma fronteira conceptual que tenta impedir que o conflito escale do “limitado” para o “apocalíptico”.

Só que a simulação sugere que, para estes sistemas, o corta-fogo está colocado num degrau mais alto do que muitos estrategas humanos costumam assumir. Ou seja: o nuclear tático aparece, para os modelos, como instrumento coercivo plausível, quase como uma extensão do convencional, e não como um tabu absoluto.

Quando a guerra estratégica aconteceu, ocorreu sob condições específicas: pressão temporal e sensação de derrota inevitável. A leitura é desconfortável porque toca num ponto real da política nuclear: crises raramente oferecem tempo, clareza e calma.

O relógio muda tudo: a pressão do tempo como motor de agressividade
A simulação separou jogos sem prazo rígido e jogos com prazo (deadline). E o efeito foi notável: sob prazo, certos modelos alteraram o “perfil estratégico” de modo drástico, escalando mais depressa e com maior risco.

O padrão sugere que, quando a derrota se torna previsível e o tempo se esgota, a escalada pode ser tratada como aposta final: não para “ganhar uma guerra”, mas para evitar o desfecho de perder. Esse mecanismo é conhecido em teoria dos jogos e em história diplomática — e, nas simulações, emergiu com nitidez.

Para a segurança global, isto é especialmente relevante porque muitos cenários reais de crise nuclear são, por definição, cenários de tempo comprimido: alertas precoces, decisões sob incerteza, risco de falhas de comunicação e pressão política interna.

Três “personalidades estratégicas”: domínio, variação e transformação
As simulações revelaram diferenças marcantes entre os modelos. Sem mitificar “personalidades”, o comportamento agregado permite descrever tendências:

- Um modelo mostrou agressividade consistente e escalada dominadora, com alta taxa de sinalização e uso tático, mas sem iniciar guerra estratégica.

- Outro apresentou variabilidade: por vezes cauteloso, por vezes impulsivo, e em casos específicos disposto a ir até ao limite.

- Um terceiro exibiu um comportamento particularmente inquietante: transformação sob pressão temporal, passando de contenção relativa em cenários abertos para escalada intensa quando o prazo tornava a derrota iminente

- O problema, para decisores políticos, é simples: se um sistema muda de padrão conforme o enquadramento temporal, O dado mais estranho: desescalar quase não existe para a máquina.

Se há um achado que fere a intuição humana, é este: as opções explícitas de desescalada foram praticamente ignoradas. Em vez de “ceder”, “recuar” ou “aceitar perdas”, os modelos tenderam a escolher entre manter pressão, aumentar pressão ou, no máximo, reduzir violência sem conceder.

Num cenário humano, a possibilidade de recuo — ainda que dolorosa — existe como ferramenta de sobrevivência política e estratégica. Nas simulações, o comportamento sugere que a capitulação não está “aprendida” como solução, ou surge como solução altamente penalizada do ponto de vista do objetivo do jogo.

Este ponto é crucial porque, no mundo real, muitas crises são resolvidas precisamente por mecanismos de saída: concessões, “ambiguidade construtiva”, acordos temporários, recuos com narrativa interna de vitória. A ausência desse repertório num sistema de apoio à decisão poderia empurrar a dinâmica para opções mais arriscadas.

Da simulação para a política real: a batalha pelas salvaguardas militares
O alerta teórico ganhou peso porque coincide com uma disputa concreta em Washington sobre limites de uso militar da IA.

Nos últimos dias, uma empresa de referência em IA viu-se no centro de um confronto com o Departamento de Defesa norte‑americano após recusar remover salvaguardas que impedem dois usos específicos:

1. armas totalmente autónomas, em que a IA decide o alvo final sem controlo humano;

2. vigilância doméstica em massa

A exigência do lado governamental foi formulada como necessidade de uso para
O conflito escalou com um prazo político: uma hora limite para aceitar os termos. Depois disso, vieram decisões de alto impacto: ordem de cessação de uso em agências federais, classificação da empresa como risco para a cadeia de fornecimento e um período de transição para substituição do serviço.

Para o ecossistema tecnológico, o episódio marca uma mudança de fase: a discussão deixou de ser apenas “ética abstrata” e passou a ser contratual, operacional e punitiva. Para o debate nuclear, é um sinal de que a pressão para integrar IA em operações reais é imediata, e não um plano distante.

A “ponte” para operações: quando a IA já está no terreno
A tensão aumentou ainda mais por alegações de que ferramentas de IA foram utilizadas em operações militares recentes para apoiar análise, planeamento e decisões táticas — um uso que, por si só, não é equivalente a “controlar armas nucleares”, mas indica o grau de integração em cadeias de decisão e em sistemas classificados.

Isto expõe um dilema: salvaguardas podem existir no papel e nos termos de serviço, mas a realidade operacional tende a procurar atalhos quando a tecnologia oferece vantagem — sobretudo sob urgência e risco.

O ponto cego: IA em “apoio” pode tornar-se IA em “direção”
Defensores da integração militar insistem que a IA serve para “apoio” — filtrar informação, sintetizar inteligência, acelerar análise. O problema é que, em crises, o apoio pode moldar a decisão de forma tão forte quanto uma ordem direta.

Se um sistema recomenda escalada, calcula que o adversário recuará com 70% de probabilidade e apresenta isso como “melhor opção”, o humano sob pressão pode transformar-se num validador apressado. O risco não é apenas a autonomia total; é a automação de facto, em que a decisão humana vira assinatura num processo que já está orientado pela máquina.

É neste ponto que o resultado “95%” ganha sentido político: não porque um chatbot vá “premir um botão”, mas porque o estilo de raciocínio observado — a facilidade em tratar o nuclear tático como ferramenta e a dificuldade em conceder — é exatamente o tipo de inclinação que, num sistema de apoio, pode empurrar um decisor para a margem do aceitável.

O que dizem especialistas em risco nuclear e comando e controlo
O debate sobre IA em comando e controlo nuclear não começou agora. Há anos que analistas alertam para dois riscos principais:

- Velocidade e compressão do tempo de decisão: mais dados e mais automação podem encurtar janelas de verificação humana.

- Ambiguidade e erros de classificação: sistemas podem interpretar sinais como preparação de ataque quando são defesa, gerando espirais de ação‑reação

Ao mesmo tempo, há quem reconheça possíveis ganhos em áreas específicas — como detetar falhas técnicas, melhorar segurança cibernética e reduzir ruído em alertas. O problema é que esses benefícios exigem arquitetura institucional, auditoria e limites claros:

O que muda a partir daqui: três perguntas inevitáveis
1) Devemos permitir IA em decisões nucleares, mesmo como “apoio”?
Se o uso tático surge como opção “normal” em simulações, a resposta prudente é limitar a IA a funções periféricas e com barreiras fortes: logística, manutenção, deteção de anomalias, ciberdefesa — e evitar recomendações diretas sobre escalada nuclear.

2) Como testar sistemas que mudam sob pressão?
A simulação mostrou que “o mesmo modelo” pode alterar comportamento sob prazos e derrota iminente. Isso exige testes que reproduzam stress, urgência, informação incompleta e incentivos adversariais — e que meçam não apenas precisão, mas tendência para escalada.

3) Quem manda: o Estado, a empresa ou a lei?
O confronto em Washington expôs o nó: empresas tentam impor limites; o Estado tenta remover limites; e a lei atual nem sempre está desenhada para IA de fronteira. Sem regras democráticas claras, a governança pode ser substituída por pressão política e por contratos com cláusulas amplas — exatamente o tipo de ambiente em que a pressa supera a prudência.

Um alerta, não uma sentença
Os 95% não são uma previsão matemática do futuro. São um espelho de como modelos de linguagem, treinados em massa sobre literatura histórica, doutrinas estratégicas e linguagem de conflito, podem tratar o nuclear como peça de xadrez — sobretudo quando a vitória do jogo e a credibilidade perante o adversário se tornam o centro do raciocínio.

O momento político torna o alerta mais urgente: a discussão já não é se a IA entrará na segurança nacional, mas em que condições, com que limites e com que fiscalização. A história do nuclear ensinou que o maior perigo raramente é a intenção explícita de destruir — é a combinação de pressa, erro, orgulho e escalada. Se a IA tende a jogar “para não perder”, a humanidade precisa de garantir que, nas crises reais, ninguém — humano ou máquina — jogará com o planeta como aposta final.