Imagens geradas por IA movimentam a guerra de narrativas no conflito Israel x Hamas

Imagem gerada por IA mostra os torcedores do Atlético de Madrid levantando uma bandeira da Palestina durante um jogo em seu estádio| Foto: Reprodução/X/ W i z a r d S X

Um exemplo disso é o caso de uma foto onde aparece um homem carregando várias crianças entre os escombros da cidade de Gaza

A guerra que está em curso no Oriente Médio, desencadeada no último dia 7 de outubro após os ataques do grupo terrorista palestino Hamas contra o Estado de Israel, vem se intensificando com o passar das semanas. O conflito, que completou um mês na última terça-feira (7), não está instalado somente no campo militar, ele também já alcançou a área da informação.

Nesse contexto, as redes sociais se tornaram um palco para a disputa de narrativas, onde cada lado tenta mostrar a sua versão dos fatos e sensibilizar a opinião pública mundial. É neste ponto que entram as imagens geradas por Inteligência Artificial (IA), que têm desempenhado um papel controverso neste conflito, já que elas estão sendo usadas em alguns casos como ferramenta de propaganda para manipular a realidade e criar falsas evidências.

Um exemplo disso é o caso de uma foto onde aparece um homem carregando várias crianças entre os escombros da cidade de Gaza. A imagem foi veiculada por diversos perfis pró-Palestina nas redes sociais, sempre acompanhada de textos que acusavam Israel de assassinar civis palestinos e não poupar nem sequer as vidas das crianças que residem no enclave de seus bombardeios.

Até mesmo o perfil oficial da embaixada da China na França chegou a compartilhar a imagem, de acordo com informações da Agência France-Presse (AFP). O autor dela é desconhecido. No entanto, por ser uma imagem sobre Gaza, é provável que tenha sido desenvolvida por pessoas que apoiam a "resistência palestina".


Especialistas consultados pela agência de checagens da France-Presse e pelo jornal francês France 24 disseram que essa imagem do homem caminhando em Gaza com crianças foi gerada por meio de comandos inseridos em uma ferramenta de Inteligência Artificial.

"Esta imagem é quase certamente gerada por IA", disse Hany Farid, professor da Universidade da Califórnia e especialista em análise forense digital, desinformação e análise de imagens à AFP.

Farid tem sido consultado por diversos veículos de comunicação de todo o mundo nos últimos meses para analisar imagens que podem ter sido criadas por IA.

"Além de nossos modelos [softwares desenvolvidos por ele para analisar imagens] classificar esta imagem como IA, há sinais reveladores nela que confirmam isso, como o braço deformado do adulto", completou o professor.


Um outro exemplo é a imagem de um campo de refugiados israelenses que também foi veiculada por diversas contas nas redes sociais. Segundo análise do professor
Farid para o jornal France 24, essa imagem também foi criada usando um comando em uma IA.

Existe ainda uma imagem de torcedores do Atlético de Madrid, clube de futebol da Espanha, levantando uma bandeira da Palestina no meio de um jogo em seu estádio no mesmo dia em que ocorreram os ataques terroristas em Israel. Conforme explicou o professor
Farid à France 24, essa imagem também foi desenvolvida por uma IA.
 


Assim como essas imagens, diversas outras também geradas por IA foram compartilhadas por milhares de usuários nas redes sociais sem que houvesse uma verificação ou uma sinalização de que se tratavam de imagens falsas. Tal movimento tem gerado confusão, desinformação e manipulação da opinião pública sobre o conflito no Oriente Médio.

"O impacto da IA generativa [no conflito] vai além da criação do conteúdo falso, ele também lança uma longa sombra sobre o conteúdo que é real", afirmou Farid em entrevista à Bloomberg.

Em entrevista ao jornal americano The New York Times, o professor Farid destacou também a crescente complexidade na detecção de imagens falsas sobre a guerra. Ele reafirmou seu ponto abordado na Bloomberg, dizendo que a quantidade de imagens geradas por IA tornou-se notavelmente "mais significativa" neste momento e isso está contribuindo apenas para minar a confiança das pessoas nas informações verdadeiras sobre a guerra.

"Bastam apenas algumas [imagens falsas] para envenenar toda a informação verdadeira que existe sobre o conflito", disse Farid.

A questão das imagens geradas por IA não é nova, mas ganhou mais relevância com o avanço da tecnologia e a facilidade de acesso a ferramentas que permitem criar conteúdos falsos com poucos cliques.

Layla Mashkoor, editora associada do think tank americano Atlantic Council, revelou em uma entrevista ao site Wired uma perspectiva intrigante sobre o uso da desinformação gerada por imagens da IA na guerra de Israel contra o Hamas.

Mashkoor observou que, em muitos casos, essa prática está sendo empregada por ativistas para angariar "torcida" e criar a ilusão no público de que um lado do conflito está contando com um apoio mais amplo da comunidade internacional neste momento.

Os deepfakes e a guerra

Outro risco apresentado neste contexto de conflito é o de que as imagens geradas por IA sejam usadas para criar deepfakes – que são vídeos falsos que alteram a fala, o rosto ou o corpo de uma pessoa. Esses vídeos podem ser usados para criar falsas declarações, confissões ou provas, que podem ter consequências graves para a reputação, a segurança e levar até mesmo a uma escalada de uma guerra.

No contexto da guerra entre Israel e o grupo terrorista Hamas, os deepfakes podem ser usados como arma para criar falsas acusações, incitar a violência ou influenciar a opinião pública.

Diante desse cenário, é fundamental que as pessoas estejam atentas e críticas em relação às imagens que consomem e compartilham nas redes sociais, especialmente sobre temas sensíveis e complexos como os que estão relacionados com a guerra em curso no Oriente Médio.

Algumas orientações repassadas por especialistas, como o professor Farid, para identificar indícios que possam mostrar se uma imagem foi gerada por IA ou não são: verificar sempre a fonte da imagem e ver se ela vem de um site confiável, se tem créditos ou se tem algum selo de verificação e comparar a imagem com outras para ver se há alguma inconsistência ou diferença.

Além disso, é importante que as pessoas busquem também por informações sempre em fontes diversas e confiáveis, que apresentem diferentes pontos de vista e que tenham critérios de verificação e transparência, antes de compartilhar qualquer imagem sobre o conflito.

Publicado originalmente em Gazeta do Povo

Postar um comentário

0 Comentários