Zürcher Nachrichten - A Inteligência Artificial pode acabar com a humanidade?

EUR -
AED 4.278489
AFN 76.301366
ALL 96.530556
AMD 444.389335
ANG 2.085119
AOA 1068.154458
ARS 1670.316609
AUD 1.75427
AWG 2.096704
AZN 1.984845
BAM 1.955415
BBD 2.345238
BDT 142.439297
BGN 1.957372
BHD 0.439074
BIF 3456.06653
BMD 1.164835
BND 1.508396
BOB 8.046379
BRL 6.313529
BSD 1.16437
BTN 104.690912
BWP 15.469884
BYN 3.34764
BYR 22830.773166
BZD 2.341828
CAD 1.611422
CDF 2599.912958
CHF 0.937162
CLF 0.02734
CLP 1072.545921
CNY 8.235507
CNH 8.234944
COP 4446.759008
CRC 568.78787
CUC 1.164835
CUP 30.868137
CVE 110.780379
CZK 24.198994
DJF 207.014999
DKK 7.469472
DOP 74.84113
DZD 151.385181
EGP 55.40272
ERN 17.47253
ETB 180.60972
FJD 2.630723
FKP 0.8723
GBP 0.873382
GEL 3.149553
GGP 0.8723
GHS 13.337819
GIP 0.8723
GMD 85.033396
GNF 10119.511721
GTQ 8.919242
GYD 243.610929
HKD 9.068302
HNL 30.667954
HRK 7.538703
HTG 152.42995
HUF 382.163892
IDR 19442.733022
ILS 3.76907
IMP 0.8723
INR 104.795933
IQD 1525.399284
IRR 49054.133779
ISK 149.006189
JEP 0.8723
JMD 186.373259
JOD 0.825914
JPY 180.836077
KES 150.617641
KGS 101.8653
KHR 4665.166047
KMF 491.560932
KPW 1048.343898
KRW 1715.709753
KWD 0.357232
KYD 0.970405
KZT 588.861385
LAK 25249.913875
LBP 104272.296288
LKR 359.159196
LRD 204.939598
LSL 19.73441
LTL 3.439456
LVL 0.704598
LYD 6.329752
MAD 10.752872
MDL 19.812009
MGA 5193.953775
MKD 61.627851
MMK 2446.083892
MNT 4131.091086
MOP 9.337359
MRU 46.433846
MUR 53.664406
MVR 17.950554
MWK 2019.093291
MXN 21.176696
MYR 4.788683
MZN 74.437324
NAD 19.73441
NGN 1689.139851
NIO 42.851552
NOK 11.767103
NPR 167.505978
NZD 2.016522
OMR 0.447885
PAB 1.164465
PEN 3.914028
PGK 4.940241
PHP 68.699705
PKR 326.441746
PLN 4.232667
PYG 8008.421228
QAR 4.244263
RON 5.093014
RSD 117.420109
RUB 89.113003
RWF 1694.158743
SAR 4.371861
SBD 9.5794
SCR 15.722146
SDG 700.652754
SEK 10.953705
SGD 1.509027
SHP 0.873928
SLE 26.791608
SLL 24426.013032
SOS 664.266196
SRD 44.99647
STD 24109.740275
STN 24.495171
SVC 10.187374
SYP 12881.033885
SZL 19.719113
THB 37.125677
TJS 10.683448
TMT 4.076924
TND 3.415727
TOP 2.804644
TRY 49.510866
TTD 7.893444
TWD 36.432793
TZS 2836.374505
UAH 48.875802
UGX 4119.187948
USD 1.164835
UYU 45.541022
UZS 13930.253805
VES 289.561652
VND 30705.060237
VUV 142.19158
WST 3.250066
XAF 655.824896
XAG 0.019865
XAU 0.000276
XCD 3.148026
XCG 2.098577
XDR 0.815408
XOF 655.723589
XPF 119.331742
YER 277.700931
ZAR 19.720255
ZMK 10484.920268
ZMW 26.920577
ZWL 375.076512
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: BEN STANSALL - AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

Ch.Siegenthaler--NZN