Zürcher Nachrichten - Real ou fabricado? A IA, mais um ator da guerra no Irã

EUR -
AED 4.237843
AFN 73.257453
ALL 95.411667
AMD 434.912384
ANG 2.065282
AOA 1057.975579
ARS 1599.582458
AUD 1.670108
AWG 2.076724
AZN 1.960569
BAM 1.960363
BBD 2.324109
BDT 141.58955
BGN 1.97209
BHD 0.435557
BIF 3421.978954
BMD 1.153735
BND 1.486246
BOB 7.973524
BRL 5.950946
BSD 1.153886
BTN 107.475834
BWP 15.830778
BYN 3.419128
BYR 22613.212239
BZD 2.320691
CAD 1.60548
CDF 2648.976455
CHF 0.9216
CLF 0.026803
CLP 1058.333104
CNY 7.944161
CNH 7.948717
COP 4219.244671
CRC 536.945085
CUC 1.153735
CUP 30.573986
CVE 110.614338
CZK 24.50453
DJF 205.041537
DKK 7.472779
DOP 70.060591
DZD 153.470574
EGP 62.592098
ERN 17.30603
ETB 181.136824
FJD 2.604561
FKP 0.865484
GBP 0.872334
GEL 3.103076
GGP 0.865484
GHS 12.719923
GIP 0.865484
GMD 85.376838
GNF 10124.027057
GTQ 8.827508
GYD 241.491139
HKD 9.042402
HNL 30.712283
HRK 7.533203
HTG 151.452506
HUF 384.180594
IDR 19591.579441
ILS 3.605959
IMP 0.865484
INR 107.230587
IQD 1511.393267
IRR 1521921.101957
ISK 144.378222
JEP 0.865484
JMD 181.923427
JOD 0.817999
JPY 184.174807
KES 150.106429
KGS 100.892773
KHR 4629.93971
KMF 492.644575
KPW 1038.355375
KRW 1743.525041
KWD 0.356896
KYD 0.961634
KZT 546.800308
LAK 25324.490548
LBP 103316.998208
LKR 364.03574
LRD 212.059395
LSL 19.405515
LTL 3.406681
LVL 0.697883
LYD 7.372255
MAD 10.758568
MDL 20.303168
MGA 4816.845182
MKD 61.5951
MMK 2422.406973
MNT 4121.505513
MOP 9.315742
MRU 46.29913
MUR 54.00615
MVR 17.825343
MWK 2004.038264
MXN 20.599085
MYR 4.659971
MZN 73.792692
NAD 19.406018
NGN 1592.801103
NIO 42.353323
NOK 11.22821
NPR 171.961335
NZD 2.016752
OMR 0.443585
PAB 1.153881
PEN 3.983267
PGK 4.974327
PHP 69.770411
PKR 322.010295
PLN 4.275363
PYG 7464.211207
QAR 4.204786
RON 5.097438
RSD 117.409822
RUB 92.532428
RWF 1684.453565
SAR 4.331593
SBD 9.285934
SCR 17.138789
SDG 693.395457
SEK 10.870482
SGD 1.482977
SHP 0.8656
SLE 28.379476
SLL 24193.265247
SOS 659.390178
SRD 43.093209
STD 23879.991707
STN 24.805309
SVC 10.0965
SYP 127.544195
SZL 19.38254
THB 37.644088
TJS 11.059282
TMT 4.038074
TND 3.362273
TOP 2.777917
TRY 51.324267
TTD 7.828186
TWD 36.832995
TZS 2999.711778
UAH 50.537626
UGX 4329.075922
USD 1.153735
UYU 46.727746
UZS 14023.652772
VES 546.092005
VND 30384.773344
VUV 138.601123
WST 3.196856
XAF 657.484445
XAG 0.01589
XAU 0.000248
XCD 3.118028
XCG 2.079631
XDR 0.811629
XOF 651.287379
XPF 119.331742
YER 275.310064
ZAR 19.532508
ZMK 10385.013744
ZMW 22.298804
ZWL 371.502302
Real ou fabricado? A IA, mais um ator da guerra no Irã
Real ou fabricado? A IA, mais um ator da guerra no Irã / foto: Ronen Zvulun - POOL/AFP/Arquivos

Real ou fabricado? A IA, mais um ator da guerra no Irã

"Netanyahu é real ou foi gerado por IA?", pergunta uma manchete online sobre um vídeo que mostra o primeiro-ministro israelense supostamente com seis dedos.

Tamanho do texto:

O vídeo era autêntico. Mas logo as redes se encheram de mensagens que afirmavam, sem qualquer prova, que Netanyahu havia morrido em um ataque iraniano e que Israel tentava ocultar a realidade usando um sósia criado por inteligência artificial.

"Da última vez que eu verifiquei, em princípio os humanos não têm seis dedos... Exceto para a IA", diz um comentário visto por mais de cinco milhões de usuários no X, a plataforma de Elon Musk. "Netanyahu morreu?".

Especialistas em investigação digital explicaram rapidamente o "dedo a mais": tratava-se de uma sombra fugaz que fazia com que uma parte da palma da mão parecesse um dedo adicional.

Mas a demonstração se perdeu no turbilhão das redes sociais. E não importa que os geradores de imagens com IA, capazes agora de produzir em poucos segundos os "deepfakes" – vídeos ultrarrealistas modificados – tenham feito desaparecer quase por completo aquele antigo defeito do "dedo a mais". Como demonstrar que o real é real quando a fronteira entre realidade e invenção se tornou tão difusa na confusão da guerra com o Irã e até mesmo as imagens autênticas são postas em dúvida?

Alguns dias depois da divulgação do primeiro vídeo, Netanyahu publicou outro, uma espécie de prova de vida filmada em uma cafeteria, no qual mostrou as mãos para calar os rumores.

Mas, em vez de frear as especulações, as imagens alimentaram uma nova onda de teorias infundadas. "Mais IA", reclamou uma publicação que viralizou no Threads, que apontava desta vez para outra suposta prova de manipulação: a xícara de café do líder israelense continuava cheia depois de ele beber e não transbordava apesar de sua movimentação.

Um terceiro vídeo de Netanyahu, ao lado do embaixador americano em Israel, Mike Huckabee, também não pôs fim aos rumores. Alguns detetives online deram zoom nas orelhas do primeiro-ministro, afirmando que sua forma e tamanho não coincidiam com imagens dele divulgadas no passado.

– "Rumores" –

"Desde o início da guerra no Oriente Médio, em 28 de fevereiro, a rede mundial da AFP produziu mais de 500 matérias de verificação de fatos que revelam informações falsas sobre esse conflito, das quais entre 20% e 25% foram criadas com ajuda da IA, um nível jamais alcançado durante uma crise dessa magnitude.

A invasão da Ucrânia pela Rússia ou a guerra entre Israel e Gaza desencadearam ondas de imagens, vídeos e áudios gerados por IA.

O que distingue esta guerra é a magnitude e o realismo dos conteúdos artificiais, produzidos por ferramentas avançadas, de baixo custo, acessíveis e capazes de eliminar grande parte dos antigos indícios de manipulação, explicam pesquisadores.

"As plataformas tecnológicas estão saturadas do que muitos chamam de 'ruído digital'. Acho que todos devemos começar a tratar fotos, vídeos e áudios da mesma forma que tratamos os rumores", diz Thomas Nowotny, diretor de um grupo de pesquisas sobre IA da Universidade de Sussex, no Reino Unido.

Essas imagens geradas por IA alcançaram tal nível de semelhança com a realidade que chegam a ofuscar fotos e vídeos autênticos, gerando uma crise de confiança. Agora, "o problema da desinformação, em geral, não é tanto que as pessoas acreditem nela", explica Constance de Saint Laurent, professora na Universidade de Maynooth, na Irlanda. "O problema é que veem informações reais e já não confiam nelas", acrescentou.

– "Prejudiciais" –

O volume de conteúdos falsos gerados por IA supera em muito a capacidade de verificação dos profissionais de checagem de fatos.

As redações mais sólidas não estão a salvo de serem enganadas.

A revista alemã Der Spiegel anunciou recentemente ter retirado várias imagens relacionadas com o Irã após determinar que provavelmente haviam sido geradas por inteligência artificial.

E mesmo quando demonstrado que esses conteúdos são invenções, eles ressurgem regularmente, um padrão que alguns pesquisadores qualificam de desinformação "zumbi".

Os algoritmos priorizam conteúdos em função das interações (vezes em que são compartilhados, comentados, "curtidos”...), frequentemente impulsionados pelo sensacionalismo, pela indignação e pela desinformação.

As plataformas de redes sociais "agem como editoras, por meio do que decidem mostrar prioritariamente no seu feed de notícias. E, muito frequentemente, isso inclui conteúdos prejudiciais e desinformação", ressalta Constance de Saint Laurent.

Os incentivos financeiros aceleram o fenômeno. A maioria das plataformas permite que criadores enriqueçam em função das interações, incentivando influenciadores a divulgar conteúdos enganosos ou completamente fabricados para obter cliques, visibilidade e dinheiro.

Segundo o Instituto para o Diálogo Estratégico (ISD, na sigla em inglês), com sede em Londres, várias contas no X que publicam conteúdos de IA sobre a guerra entre Irã, Estados Unidos e Israel acumularam mais de 1 bilhão de visualizações desde o início do conflito. Outro exemplo viral: uma conta no X publicou um vídeo gerado por IA que parecia mostrar a torre Burj Khalifa, em Dubai, desabando em uma nuvem de poeira.

"Dez milhões de visualizações e nenhuma nota da comunidade", comentou, 20 horas após a publicação daquele clipe, o analista de guerra da informação Tal Hagin.

Quando uma nota da comunidade — um sistema de verificação participativa, cuja eficácia é frequentemente questionada por pesquisadores — foi acrescentada, o vídeo já havia sido visto mais de 12 milhões de vezes.

Os conteúdos modificados continuaram a proliferar no X mesmo depois de a plataforma ameaçar sancionar criadores que publicassem vídeos de guerra gerados por IA sem indicá-lo.

– "Legoficação" –

Os memes gerados por IA, que banalizam os conflitos, ao mesmo tempo em que difundem desinformação, ocupam cada vez mais espaço, um fenômeno batizado pelo ISD como "Legoficação" da propaganda de guerra.

Um filme iraniano falso, gerado por IA com personagens de Lego, viralizou já na primeira semana do conflito, acusando Donald Trump de ter atacado Teerã para desviar a atenção de seu suposto papel no escândalo do criminoso sexual Jeffrey Epstein.

Vídeos ultrarrealistas foram utilizados para representar vitórias militares iranianas fictícias, líderes mundiais em situações absurdas ou o estratégico Estreito de Ormuz reimaginado como uma barreira de pedágio caricatural.

O presidente dos Estados Unidos advertiu que a IA era uma "arma de desinformação que o Irã usa muito bem neste conflito".

"Os prédios e navios que aparecem em chamas não estão, é FAKE NEWS gerada por IA", escreveu em sua plataforma, Truth Social.

No entanto, ele próprio compartilhou imagens e vídeos gerados por IA para se representar como rei ou como o Super-Homem, retratar seus opositores como criminosos ou usar memes de IA para alimentar teorias da conspiração e narrativas falaciosas.

"Consideramos que as plataformas tecnológicas atualmente não estão fazendo o suficiente para ajudar os usuários a determinar se um conteúdo é gerado por IA ou autêntico", avaliou, em março, o Conselho de Supervisão da Meta, órgão criado pelo Facebook para examinar decisões de moderação de conteúdo.

"Os conteúdos falsos podem ser prejudiciais, ao incitar mais violência e alimentar ainda mais o conflito", acrescentou.

A AFP trabalha em 26 idiomas com o programa de checagem de fatos do Facebook, especialmente na Ásia, na América Latina e na União Europeia.

A Meta encerrou seu programa de verificação por terceiros nos Estados Unidos no ano passado porque, segundo seu diretor-geral, Mark Zuckerberg, havia gerado "censura demais", uma afirmação refutada pelos defensores do programa. Como alternativa, Zuckerberg informou que as plataformas da Meta, Facebook e Instagram, usariam o modelo das notas da comunidade, uma decisão que poderia enfraquecer ainda mais as salvaguardas contra a desinformação, segundo seus críticos.

– "Bem real" –

As ferramentas de detecção de IA deveriam dissipar o ruído da guerra da informação, mas, às vezes, só o tornam mais confuso. No caso de Netanyahu, partidários das teorias da conspiração esgrimiram uma ferramenta de detecção de IA que classificou erroneamente seu vídeo gravado em um café como "gerado por IA em 96,9%".

Outras ferramentas chegaram à conclusão oposta. O problema não se limita aos vídeos. As redes sociais estão repletas de imagens de satélite fabricadas ou mapas de calor manipulados, usados para semear dúvidas sobre as provas do conflito, segundo os pesquisadores.

Os relatos falsos já não se limitam a fabricar conteúdo, mas também rotulam como invenções reportagens completamente reais, destaca a NewsGuard: "Quando tudo pode ser falso, fica fácil acreditar que qualquer coisa é", analisa Sofia Rubinson, integrante desse observatório da desinformação.

Usuários de redes sociais acusaram falsamente grandes meios de comunicação, como o New York Times, de terem publicado imagens do conflito geradas por IA, entre elas uma que mostrava uma enorme multidão em Teerã comemorando a nomeação do novo guia supremo, Mojtaba Khamenei.

Quando informações verídicas, porém comprometedoras, são descartadas como geradas por IA, os pesquisadores chamam isso de "dividendo do mentiroso". Nessas circunstâncias, "fica mais fácil negar atrocidades", advertiu um relatório da Tech Policy Press.

"É isso que os mal-intencionados buscam: que as pessoas pensem que tudo pode ter sido manipulado, para que não possam confiar em nada", insiste Hannah Covington, diretora sênior de conteúdos educacionais no News Literacy Project.

Imagens falsas de fatos reais contaminam ainda mais o panorama informativo. Após um ataque mortal contra uma escola na cidade de Minab, em 28 de fevereiro, uma conta oficial iraniana no X publicou uma foto mostrando a mochila de uma criança manchada de sangue e poeira. A AFP determinou que era muito provável que a imagem tivesse sido gerada por IA.

Mas poucos internautas pareceram incomodados com o uso de uma imagem manipulada para ilustrar a morte de estudantes reais, sinal de uma resignação crescente diante de uma era em que a pergunta "É real?" se tornou cada vez mais difícil de responder.

"Provavelmente modificada por IA, mas o significado é real", escreveu um usuário do Reddit.

F.Carpenteri--NZN