Com a proximidade das eleições municipais, a preocupação com possíveis ameaças à democracia se torna ainda mais evidente. Se o combate às campanhas massivas de desinformação já se mostrou um desafio em 2018, com a disseminação de fake news, o que dizer de imagens, áudios e vídeos produzidos com Inteligência Artificial, simulando imagens e vozes de diferentes pessoas?
As deepfake têm ganhado força nos últimos anos, principalmente no Brasil. Em 2023, o número de ocorrências relacionadas a fraudes aumentou 31 vezes, de acordo com a Onfido, empresa especialista em verificação de identidade. O Brasil ocupa o topo do pódio dos casos na América Latina, com 49,6% das ocorrências.
De acordo com Rodrigo Rocha, gerente de arquitetura de soluções da CG One, empresa de tecnologia focada em segurança da informação, proteção de redes e gerenciamento integrado de riscos, as deepfake são uma ameaça tecnológica em qualquer cenário, mas merecem atenção redobrada no período eleitoral. “Esses conteúdos manipulados são frequentemente usados para enganar pessoas, espalhar desinformação e, no contexto das eleições, conquistar eleitores a partir do compartilhamento de notícias falsas”, explica o especialista.
No entanto, segundo o executivo, mesmo com a sofisticação das fraudes, é possível identificar indícios de manipulação e reconhecer possíveis deepfakes. Pensando nisso, o profissional listou maneiras de comprovar se um material que circula na internet e nos canais de comunicação não é verídico.
1 – Movimentos faciais e expressões incomuns
Atenção aos movimentos do rosto, especialmente dos olhos e da boca. Em muitas deepfakes, esses movimentos podem parecer estranhos ou não naturais. É recomendado ficar atento às mudanças de tom de pele nas bordas do rosto e analisar se partes da face, como queixo, sobrancelhas ou boca, têm efeito duplicado.
“Observar as reações da pessoa também é um elemento valioso para identificar manipulações de imagem. Por exemplo, imagine que um candidato à eleição está citando problemas da cidade, mas está sorrindo no vídeo. Há grandes chances de ser deepfake”, alerta Rocha.
2 – Olhos desalinhados e inexpressivos
Também é válido analisar se a pessoa no vídeo pisca normalmente e se os olhos estão alinhados e expressivos. Deepfakes podem não reproduzir com precisão o movimento natural dos olhos, criando um aspecto estranho e artificial no rosto.
“Esses defeitos acontecem porque a Inteligência Artificial, apesar de cada vez mais refinada, pode falhar em criar uma imagem completamente limpa e sincronizada”, aponta o especialista.
3 – Iluminação inconsistente
Reparar na iluminação do rosto do personagem principal do vídeo em relação ao cenário é importante. As sombras e a luz devem estar em harmonia com o resto do vídeo. Em materiais manipulados, a iluminação do rosto pode não combinar bem, resultando em sombras estranhas ou em áreas iluminadas de forma diferente do restante da cena.
4 – Ruídos excessivos e imagem pixelada
É recomendado desconfiar de pequenos defeitos visuais, como áreas pixeladas, granuladas, borradas ou distorcidas, em especial ao redor do rosto, perto dos olhos e da boca. Também recomenda-se analisar ruídos em excesso e falta de sincronia entre o áudio e a imagem.
“Em alguns deepfakes, os manipuladores dão mais atenção aos aspectos visuais do que ao som. Não raramente, os áudios são editados separadamente do vídeo, o que pode causar essa falta de sincronia”, explica o executivo.
5 – Em caso de dúvidas, checar a veracidade do conteúdo
Se houver desconfiança sobre a legitimidade de uma imagem, áudio ou vídeo, a melhor alternativa é não compartilhar antes de confirmar em canais oficiais. A recomendação é checar se o conteúdo vem de uma fonte legítima, como redes sociais de candidatos ou órgãos eleitorais confiáveis.
“Vale reforçar que deepfakes são o auge das fake news. Tanto quem cria quanto quem compartilha pode responder criminalmente”, alerta o especialista.