Zürcher Nachrichten - A Inteligência Artificial pode acabar com a humanidade?

EUR -
AED 4.254223
AFN 72.402841
ALL 95.937927
AMD 435.645176
ANG 2.073631
AOA 1062.251494
ARS 1618.334667
AUD 1.664929
AWG 2.085119
AZN 1.962724
BAM 1.955545
BBD 2.327307
BDT 141.781545
BGN 1.980062
BHD 0.437605
BIF 3427.268694
BMD 1.158399
BND 1.478414
BOB 7.984995
BRL 6.063
BSD 1.155555
BTN 107.998409
BWP 15.790013
BYN 3.440767
BYR 22704.624729
BZD 2.324008
CAD 1.593019
CDF 2633.041451
CHF 0.912101
CLF 0.026702
CLP 1054.340024
CNY 7.970367
CNH 7.984903
COP 4300.452852
CRC 538.932178
CUC 1.158399
CUP 30.697579
CVE 110.251125
CZK 24.479057
DJF 205.774104
DKK 7.471513
DOP 68.571371
DZD 153.673095
EGP 60.99013
ERN 17.375988
ETB 180.420895
FJD 2.575411
FKP 0.865382
GBP 0.865133
GEL 3.145028
GGP 0.865382
GHS 12.641409
GIP 0.865382
GMD 84.563558
GNF 10128.725347
GTQ 8.850886
GYD 241.749577
HKD 9.072652
HNL 30.585151
HRK 7.529128
HTG 151.350953
HUF 389.894586
IDR 19592.758982
ILS 3.621
IMP 0.865382
INR 108.752721
IQD 1513.802961
IRR 1523352.895489
ISK 143.595493
JEP 0.865382
JMD 182.007095
JOD 0.821311
JPY 183.806102
KES 150.186755
KGS 101.302081
KHR 4630.417284
KMF 492.319679
KPW 1042.525876
KRW 1735.090826
KWD 0.35513
KYD 0.962971
KZT 556.949427
LAK 24837.874269
LBP 103482.577201
LKR 362.864335
LRD 211.463388
LSL 19.593734
LTL 3.420452
LVL 0.700704
LYD 7.397069
MAD 10.800741
MDL 20.210457
MGA 4809.39476
MKD 61.603478
MMK 2432.208536
MNT 4134.293661
MOP 9.323186
MRU 46.128195
MUR 53.867092
MVR 17.897438
MWK 2003.347888
MXN 20.683624
MYR 4.582603
MZN 74.033154
NAD 19.591959
NGN 1590.679178
NIO 42.524648
NOK 11.298099
NPR 172.797254
NZD 1.990188
OMR 0.445398
PAB 1.155555
PEN 4.019877
PGK 4.989372
PHP 69.334242
PKR 322.566107
PLN 4.274111
PYG 7551.049736
QAR 4.225568
RON 5.094667
RSD 117.446607
RUB 94.01989
RWF 1689.387398
SAR 4.348412
SBD 9.327104
SCR 16.080087
SDG 696.197458
SEK 10.847673
SGD 1.481807
SHP 0.869099
SLE 28.438316
SLL 24291.065002
SOS 660.41689
SRD 43.250569
STD 23976.525073
STN 24.496917
SVC 10.11064
SYP 128.556303
SZL 19.586535
THB 37.75343
TJS 11.041111
TMT 4.054397
TND 3.405371
TOP 2.789147
TRY 51.372461
TTD 7.844302
TWD 37.068581
TZS 2979.980781
UAH 50.737115
UGX 4362.451006
USD 1.158399
UYU 47.084075
UZS 14088.166261
VES 528.814289
VND 30528.453067
VUV 138.380317
WST 3.184294
XAF 655.874461
XAG 0.016705
XAU 0.000263
XCD 3.130632
XCG 2.08252
XDR 0.815697
XOF 655.874461
XPF 119.331742
YER 276.452226
ZAR 19.69285
ZMK 10426.982731
ZMW 22.388183
ZWL 373.004076
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: BEN STANSALL - AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

Ch.Siegenthaler--NZN