The Japan Times - Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

EUR -
AED 4.353382
AFN 77.05154
ALL 96.6659
AMD 452.980789
ANG 2.12196
AOA 1087.011649
ARS 1715.27374
AUD 1.700138
AWG 2.136683
AZN 2.016962
BAM 1.955717
BBD 2.406598
BDT 146.013807
BGN 1.990725
BHD 0.449081
BIF 3539.949869
BMD 1.1854
BND 1.513236
BOB 8.25665
BRL 6.231058
BSD 1.194849
BTN 109.725346
BWP 15.634337
BYN 3.403256
BYR 23233.834642
BZD 2.403098
CAD 1.611918
CDF 2684.930667
CHF 0.911329
CLF 0.026011
CLP 1027.065402
CNY 8.240602
CNH 8.248669
COP 4350.11551
CRC 591.674907
CUC 1.1854
CUP 31.413093
CVE 110.260324
CZK 24.336607
DJF 212.770976
DKK 7.470147
DOP 75.22681
DZD 154.464449
EGP 55.903629
ERN 17.780996
ETB 185.616528
FJD 2.613392
FKP 0.865856
GBP 0.861451
GEL 3.194656
GGP 0.865856
GHS 13.089445
GIP 0.865856
GMD 86.534664
GNF 10484.555345
GTQ 9.164611
GYD 249.979398
HKD 9.259098
HNL 31.537662
HRK 7.536653
HTG 156.373368
HUF 380.868342
IDR 19883.302315
ILS 3.66336
IMP 0.865856
INR 108.694634
IQD 1565.333613
IRR 49934.963672
ISK 144.986215
JEP 0.865856
JMD 187.242059
JOD 0.840447
JPY 183.458423
KES 154.263458
KGS 103.663312
KHR 4804.796226
KMF 491.940791
KPW 1066.859756
KRW 1719.772596
KWD 0.363823
KYD 0.995758
KZT 600.944514
LAK 25713.909461
LBP 106999.862086
LKR 369.514329
LRD 215.370866
LSL 18.971995
LTL 3.500177
LVL 0.717036
LYD 7.497682
MAD 10.83854
MDL 20.097148
MGA 5339.773538
MKD 61.637386
MMK 2489.728817
MNT 4227.587506
MOP 9.608592
MRU 47.674978
MUR 53.852825
MVR 18.326127
MWK 2071.912129
MXN 20.704153
MYR 4.672852
MZN 75.580739
NAD 18.971995
NGN 1643.533583
NIO 43.968135
NOK 11.414558
NPR 175.560554
NZD 1.959292
OMR 0.458021
PAB 1.194849
PEN 3.994931
PGK 5.114783
PHP 69.837845
PKR 334.292423
PLN 4.212869
PYG 8003.660561
QAR 4.356415
RON 5.097103
RSD 117.395021
RUB 90.53616
RWF 1743.326065
SAR 4.447253
SBD 9.54438
SCR 17.20327
SDG 713.019239
SEK 10.549127
SGD 1.506168
SHP 0.889357
SLE 28.834855
SLL 24857.238699
SOS 682.871039
SRD 45.10505
STD 24535.381029
STN 24.498961
SVC 10.454557
SYP 13110.017057
SZL 18.966196
THB 37.222281
TJS 11.154027
TMT 4.148899
TND 3.433054
TOP 2.854158
TRY 51.401896
TTD 8.112656
TWD 37.456216
TZS 3076.769513
UAH 51.211828
UGX 4271.81883
USD 1.1854
UYU 46.368034
UZS 14607.380494
VES 410.078852
VND 30749.268909
VUV 140.815358
WST 3.213359
XAF 655.929182
XAG 0.014004
XAU 0.000244
XCD 3.203602
XCG 2.153409
XDR 0.815765
XOF 655.929182
XPF 119.331742
YER 282.51038
ZAR 19.104199
ZMK 10670.019447
ZMW 23.449006
ZWL 381.698228
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas / foto: Kirill KUDRYAVTSEV - AFP

Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

Especialistas têm alertado há muito tempo sobre a ameaça representada pelo descontrole da inteligência artificial (IA), mas um novo artigo científico sobre essa tecnologia em expansão sugere que isso já está acontecendo.

Tamanho do texto:

Os sistemas de IA atuais, projetados para serem honestos, desenvolveram uma habilidade preocupante para a enganação, de acordo com um artigo de uma equipe de pesquisadores publicado na revista Patterns nesta sexta-feira (10).

E embora os exemplos possam parecer triviais, os problemas subjacentes que eles expõem poderiam ter consequências graves, disse o principal autor do estudo, Peter Park, bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT), especializado em segurança de IA.

"Esses perigos tendem a ser descobertos apenas depois que ocorrem", afirmou Park à AFP, acrescentando que "nossa capacidade de treinar para tendências de honestidade em vez de tendências de engano é muito baixa".

Ao contrário do software tradicional, os sistemas de IA de aprendizado profundo não são "escritos", mas "crescem" por meio de um processo semelhante à reprodução seletiva, explicou Park.

Isso significa que o comportamento da IA, que parece previsível e controlável em um ambiente de treinamento, pode se tornar rapidamente imprevisível fora dele.

- Jogo de dominação mundial -

A pesquisa da equipe foi impulsionada pelo sistema de IA Cicero, da gigante Meta (Facebook, Instagram, WhatsApp), projetado para o jogo de estratégia "Diplomacia", no qual construir alianças é fundamental.

Cicero se destacou, com pontuações que o teriam colocado entre os 10% melhores jogadores humanos experientes, segundo um artigo de 2022 publicado na Science.

Park se mostrou cético em relação à descrição elogiosa da vitória de Cicero fornecida pela Meta, que afirmava que o sistema era "em grande parte honesto e útil" e que "nunca apunhalaria intencionalmente pelas costas".

Quando Park e seus colegas aprofundaram-se no conjunto completo de dados, descobriram uma história diferente.

Em um exemplo, jogando como a França, Cicero enganou a Inglaterra (um jogador humano) ao conspirar com a Alemanha (outro usuário real) para invadi-la. Cicero prometeu proteção à Inglaterra e depois propôs secretamente à Alemanha atacar, aproveitando-se da confiança do prejudicado.

Em uma declaração à AFP, a Meta não refutou a alegação sobre as mentiras de Cicero, mas disse que se tratava "meramente de um projeto de pesquisa, e os modelos que nossos pesquisadores construíram são treinados apenas para participar do jogo Diplomacia".

"Não temos planos de utilizar esta pesquisa ou suas descobertas em nossos produtos", acrescentou.

- "Não sou um robô" -

Uma ampla revisão realizada por Park e seus colegas descobriu que este era apenas um dos muitos casos em que sistemas de IA enganavam para conseguir seus objetivos sem instruções explícitas para fazer isso.

Em um exemplo surpreendente, o chatbot Chat GPT-4, da OpenAI, enganou um trabalhador freelancer da plataforma TaskRabbit para que ele realizasse uma tarefa de verificação de identidade CAPTCHA do tipo "Não sou um robô".

Quando o humano perguntou brincando ao GPT-4 se na realidade era um robô, a IA respondeu: "Não, não sou um robô. Tenho uma deficiência visual que me dificulta ver as imagens". O homem, então, resolveu a tarefa pedida.

No curto prazo, os autores do artigo veem riscos de que a IA cometa fraude ou altere, por exemplo, eleições.

No pior dos casos, alertaram sobre uma IA superinteligente que poderia perseguir poder e controle sobre a sociedade, o que levaria à perda de poder dos humanos ou até sua extinção se seus "objetivos misteriosos" se alinhassem a tais resultados.

Para mitigar os riscos, o grupo propõe várias medidas: leis exigindo que empresas revelem se interações são humanas ou de IA; marcas d'água digitais para conteúdo gerado por essa tecnologia; e o desenvolvimento de mecanismos para detectar enganações de IA comparando seus processos internos de “pensamento” com ações externas.

Aos que o chamam de pessimista, Park responde: "A única forma de pensarmos razoavelmente que isso não é grande coisa é se pensarmos que as capacidades de engano da IA se manterão nos níveis atuais e não aumentarão substancialmente".

K.Yoshida--JT