The Japan Times - A Inteligência Artificial pode acabar com a humanidade?

EUR -
AED 4.356256
AFN 77.102519
ALL 96.729833
AMD 453.280378
ANG 2.123363
AOA 1087.730931
ARS 1716.407515
AUD 1.703027
AWG 2.138096
AZN 2.01145
BAM 1.957011
BBD 2.40819
BDT 146.110377
BGN 1.992042
BHD 0.449378
BIF 3542.291098
BMD 1.186184
BND 1.514237
BOB 8.262111
BRL 6.235172
BSD 1.19564
BTN 109.797916
BWP 15.644677
BYN 3.405506
BYR 23249.200887
BZD 2.404687
CAD 1.615618
CDF 2686.705937
CHF 0.916565
CLF 0.026028
CLP 1027.744898
CNY 8.246052
CNH 8.251497
COP 4352.992561
CRC 592.066225
CUC 1.186184
CUP 31.433869
CVE 110.333247
CZK 24.330941
DJF 212.911697
DKK 7.467917
DOP 75.276563
DZD 154.566608
EGP 55.909475
ERN 17.792756
ETB 185.73929
FJD 2.61512
FKP 0.866428
GBP 0.866359
GEL 3.196822
GGP 0.866428
GHS 13.098102
GIP 0.866428
GMD 86.591171
GNF 10491.489553
GTQ 9.170673
GYD 250.144728
HKD 9.263715
HNL 31.558521
HRK 7.534519
HTG 156.476789
HUF 381.053191
IDR 19896.452606
ILS 3.665789
IMP 0.866428
INR 108.766523
IQD 1566.368884
IRR 49967.989338
ISK 145.081737
JEP 0.866428
JMD 187.365896
JOD 0.841039
JPY 183.859615
KES 154.365483
KGS 103.731752
KHR 4807.973992
KMF 492.265869
KPW 1067.565349
KRW 1720.932795
KWD 0.364064
KYD 0.996416
KZT 601.341962
LAK 25730.915962
LBP 107070.628969
LKR 369.758716
LRD 215.513307
LSL 18.984543
LTL 3.502492
LVL 0.71751
LYD 7.502641
MAD 10.845709
MDL 20.110439
MGA 5343.305123
MKD 61.678151
MMK 2491.375458
MNT 4230.383521
MOP 9.614947
MRU 47.706509
MUR 53.888177
MVR 18.338709
MWK 2073.282437
MXN 20.709403
MYR 4.675926
MZN 75.630943
NAD 18.984543
NGN 1644.620269
NIO 43.997215
NOK 11.444004
NPR 175.676666
NZD 1.96843
OMR 0.458323
PAB 1.19564
PEN 3.997573
PGK 5.118166
PHP 69.884035
PKR 334.513515
PLN 4.213639
PYG 8008.953971
QAR 4.359296
RON 5.100467
RSD 117.472663
RUB 90.549444
RWF 1744.479055
SAR 4.450194
SBD 9.550693
SCR 17.214648
SDG 713.492182
SEK 10.570575
SGD 1.508244
SHP 0.889945
SLE 28.853899
SLL 24873.67862
SOS 683.322672
SRD 45.134883
STD 24551.608082
STN 24.515164
SVC 10.461471
SYP 13118.687676
SZL 18.978739
THB 37.242691
TJS 11.161404
TMT 4.151643
TND 3.435325
TOP 2.856045
TRY 51.596109
TTD 8.118021
TWD 37.48105
TZS 3078.804407
UAH 51.245698
UGX 4274.644098
USD 1.186184
UYU 46.3987
UZS 14617.04143
VES 410.350069
VND 30769.605664
VUV 140.90849
WST 3.215484
XAF 656.362996
XAG 0.014208
XAU 0.000248
XCD 3.205721
XCG 2.154833
XDR 0.816305
XOF 656.362996
XPF 119.331742
YER 282.697194
ZAR 19.196652
ZMK 10677.081704
ZMW 23.464514
ZWL 381.950673
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: BEN STANSALL - AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

K.Nakajima--JT