Início BRASIL Vídeos falsos com IA são derrubados após denúncia do ICL

Vídeos falsos com IA são derrubados após denúncia do ICL

0


Por Leila Cangussu

Uma série de vídeos que simulavam agressões entre pessoas identificadas como apoiadores de direita e de esquerda circulou com força nas redes sociais nos últimos dias. As imagens, que pareciam registros reais, foram produzidas com inteligência artificial.

A denúncia foi feita por Leandro Demori, diretor de jornalismo do Instituto Conhecimento Liberta (ICL), durante o ICL Notícias. Os conteúdos chegaram a atingir milhões de visualizações antes de serem questionados.

Após a exposição pública do caso, uma mobilização da comunidade do ICL levou à derrubada de ao menos um dos perfis responsáveis pela disseminação dos vídeos.

Vídeos eram construídos como flagrante

Os vídeos seguiam um padrão. Eram curtos, diretos e com narrativa clara. Mostravam cenas de agressão envolvendo pessoas com símbolos políticos visíveis. A linguagem visual simulava registros espontâneos, como se fossem captados por celular, mas nada daquilo aconteceu.

Os conteúdos foram gerados artificialmente, com uso de ferramentas capazes de reproduzir rostos, movimentos e ambientação com grau de realismo suficiente para passar despercebido em uma primeira visualização.

O impacto não está apenas na existência do material, mas na forma como ele circula. Em plataformas orientadas por engajamento, conteúdos com alto potencial de choque tendem a ganhar escala antes que qualquer verificação ocorra.

Quando a checagem chega, o alcance já foi estabelecido.

Resposta partiu da audiência

A remoção dos perfis não aconteceu por iniciativa das plataformas. Depois da denúncia, a derrubada ocorreu a partir de denúncias em massa feitas por usuários. O movimento foi impulsionado por quem acompanhou a cobertura do ICL e passou a reportar os conteúdos diretamente nas plataformas.

Casos assim não são incomuns, mas raramente ganham visibilidade. A queda de perfis com alto volume de visualizações depende de pressão consistente, e nem sempre ocorre.

Neste caso, ocorreu e expôs um ponto central: a circulação de desinformação não é um processo automático. Ela depende de redes que amplificam, e pode ser interrompida por redes que contestam.

A aparência de evidência mudou

O episódio marca um deslocamento no tipo de conteúdo que passa a circular no debate público. Vídeos sempre tiveram um estatuto de prova. A ideia de que “se está gravado, aconteceu” ainda opera como referência para grande parte do público.

A inteligência artificial altera esse pressuposto. Hoje, é possível produzir cenas com aparência de registro direto sem que haja qualquer correspondência com a realidade. A sofisticação técnica não elimina falhas, mas reduz o nível de suspeita inicial.

Isso cria uma zona de ambiguidade. O conteúdo não precisa ser perfeito. Precisa ser convincente o suficiente para ser compartilhado.

Ano eleitoral amplia o efeito

A circulação desses vídeos ocorre em um momento sensível. Em contextos eleitorais, conteúdos manipulados tendem a surgir em períodos estratégicos e com objetivo claro: provocar reação imediata, gerar circulação e influenciar percepção.

Conteúdos manipulados tendem a surgir em momentos estratégicos:

  • antes de votações
  • durante crises
  • em períodos de alta polarização

E a lógica é mais simples do que se imagina. Primeiro, o material ativa emoções como indignação, medo ou revolta. Em seguida, é compartilhado antes de qualquer verificação. Depois, mesmo quando desmentido, permanece como referência para parte do público.

A diferença agora está na qualidade do material. A inteligência artificial reduz o tempo entre a intenção de manipular e a produção de um conteúdo com aparência de autenticidade. Isso encurta o ciclo da desinformação e amplia seu alcance.

O papel das plataformas segue em disputa

A remoção dos perfis reacende um debate recorrente. As plataformas digitais operam com sistemas que priorizam o engajamento. Conteúdos com alto impacto emocional tendem a ser impulsionados automaticamente, independentemente de sua veracidade.

Ao mesmo tempo, a moderação é reativa. Depende de denúncia, volume e tempo de análise. Nesse intervalo, o conteúdo já circulou.

Esse modelo cria um descompasso. A velocidade da desinformação é maior que a velocidade da resposta.

Entre o impulso e a verificação

O caso também expõe um comportamento recorrente no ambiente digital. Conteúdos que confirmam expectativas ou crenças tendem a ser compartilhados com menos resistência. A verificação costuma vir depois, quando vem.

A inteligência artificial se insere nesse processo como acelerador. Ela não cria o impulso, mas amplia sua capacidade de impacto. O resultado é um ambiente em que a reação precede a análise.

Debate sobre soberania digital ganha novo contexto

O episódio ocorre às vésperas de uma agenda mais ampla proposta pelo ICL. O dia 28 de abril será o “Dia D da Soberania Digital”, um evento voltado à discussão sobre o papel das big techs na circulação de informação e no debate público.

A proposta é analisar como algoritmos, modelos de recomendação e concentração de plataformas influenciam o que circula, o que ganha alcance e o que é silenciado.

Casos como o dos vídeos falsos ajudam a dar dimensão concreta a esse debate. Eles mostram que a disputa não é apenas por atenção, mas por definição de realidade.

Participe deste debate junto ao time de jornalistas e apresentadores do ICL. Será histórico e vai mudar a história de tudo o que já foi visto no Instituto. Inscreva-se gratuitamente aqui.





ICL Notícias

SEM COMENTÁRIOS

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Sair da versão mobile