The Japan Times - A Inteligência Artificial pode acabar com a humanidade?

EUR -
AED 4.330578
AFN 75.468553
ALL 95.370831
AMD 434.26718
ANG 2.110613
AOA 1082.496254
ARS 1649.279971
AUD 1.625347
AWG 2.125489
AZN 2.009303
BAM 1.955202
BBD 2.368676
BDT 144.305864
BGN 1.967008
BHD 0.444064
BIF 3500.4294
BMD 1.179189
BND 1.491244
BOB 8.126515
BRL 5.795828
BSD 1.17604
BTN 111.057033
BWP 15.789171
BYN 3.323484
BYR 23112.111202
BZD 2.365277
CAD 1.612129
CDF 2670.864298
CHF 0.916177
CLF 0.026704
CLP 1050.508704
CNY 8.019372
CNH 8.014083
COP 4394.855841
CRC 540.634648
CUC 1.179189
CUP 31.248518
CVE 110.231286
CZK 24.334582
DJF 209.425947
DKK 7.476537
DOP 69.938609
DZD 156.038276
EGP 62.195977
ERN 17.68784
ETB 183.631137
FJD 2.574218
FKP 0.865474
GBP 0.864889
GEL 3.154379
GGP 0.865474
GHS 13.247948
GIP 0.865474
GMD 86.674958
GNF 10318.844
GTQ 8.979254
GYD 246.064742
HKD 9.234999
HNL 31.264438
HRK 7.538916
HTG 153.972908
HUF 353.981307
IDR 20491.303919
ILS 3.421187
IMP 0.865474
INR 111.345548
IQD 1540.628801
IRR 1546506.829043
ISK 143.873347
JEP 0.865474
JMD 185.35331
JOD 0.836092
JPY 184.753623
KES 151.883547
KGS 103.085327
KHR 4718.556838
KMF 492.90156
KPW 1061.251335
KRW 1723.751231
KWD 0.36279
KYD 0.9801
KZT 543.543758
LAK 25791.111834
LBP 105315.489444
LKR 378.634195
LRD 215.803997
LSL 19.293799
LTL 3.48184
LVL 0.71328
LYD 7.436725
MAD 10.75591
MDL 20.110849
MGA 4912.497521
MKD 61.621153
MMK 2476.100645
MNT 4223.124889
MOP 9.4824
MRU 47.006623
MUR 55.210091
MVR 18.163925
MWK 2038.876413
MXN 20.255648
MYR 4.623647
MZN 75.362436
NAD 19.293799
NGN 1609.593864
NIO 43.276764
NOK 10.859513
NPR 177.691653
NZD 1.976185
OMR 0.453611
PAB 1.17604
PEN 4.066156
PGK 5.193412
PHP 71.358689
PKR 327.765953
PLN 4.239717
PYG 7183.802847
QAR 4.298685
RON 5.21945
RSD 117.334114
RUB 87.543025
RWF 1724.072695
SAR 4.44258
SBD 9.456429
SCR 17.539736
SDG 708.107537
SEK 10.86706
SGD 1.494509
SHP 0.880384
SLE 29.067455
SLL 24727.006491
SOS 672.094441
SRD 44.100547
STD 24406.83871
STN 24.492509
SVC 10.290853
SYP 130.375396
SZL 19.281103
THB 37.973479
TJS 10.972544
TMT 4.127163
TND 3.415955
TOP 2.839205
TRY 53.473293
TTD 7.970562
TWD 36.927538
TZS 3063.662984
UAH 51.6595
UGX 4406.652233
USD 1.179189
UYU 46.905654
UZS 14265.63688
VES 588.693738
VND 31022.113342
VUV 139.685143
WST 3.192143
XAF 655.756438
XAG 0.014675
XAU 0.00025
XCD 3.186819
XCG 2.119552
XDR 0.815551
XOF 655.756438
XPF 119.331742
YER 281.384102
ZAR 19.315959
ZMK 10614.123377
ZMW 22.390152
ZWL 379.698489
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: BEN STANSALL - AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

K.Nakajima--JT