Conselho de Supervisão da Meta critica a empresa por não abordar o deepfake de Ronaldo Nazário

O Conselho de Supervisão da Meta ordenou a remoção de uma postagem no Facebook apresentando um vídeo manipulado por IA do lendário jogador de futebol brasileiro Ronaldo Nazário promovendo um jogo online.

O conselho decidiu que a postagem violou os Padrões da Comunidade da Meta sobre fraudes e spam, criticando a empresa por permitir que o vídeo enganoso permanecesse acessível.

O Conselho de Supervisão disse em um comunicado na quinta-feira:

“Remover a postagem está consistente com os Padrões da Comunidade da Meta sobre fraudes e spam. A Meta também deveria ter rejeitado o conteúdo para anúncio, já que suas regras proíbem o uso da imagem de uma pessoa famosa para atrair pessoas a interagir com um anúncio.”

O Conselho de Supervisão diz que a Meta não está fazendo o suficiente para combater fraudes com deepfakes de celebridades https://t.co/kPwK3YavBx

— Engadget (@engadget) 5 de junho de 2025

Como um órgão independente que supervisiona a moderação de conteúdo na Meta, o Conselho de Supervisão tem a autoridade para manter ou reverter decisões de remoção e emitir recomendações vinculativas às quais a Meta deve responder.

Estabelecido em 2020, visa aumentar a transparência e a responsabilidade em torno das ações de aplicação da Meta.

Este caso destaca as crescentes preocupações sobre mídias geradas por IA que retratam falsamente indivíduos, muitas vezes mal utilizadas para fraudes, enganos e desinformação.

No vídeo, uma dublagem mal sincronizada de Ronaldo Nazário incentivou os espectadores a jogar um jogo chamado Plinko através de seu aplicativo, alegando falsamente que os usuários poderiam ganhar mais do que empregos típicos no Brasil.

Fraudes usando deepfakes de celebridades se tornaram um grande problema para a Meta. O Conselho de Supervisão confirmou o que os críticos disseram: a Meta não aplica suas regras o suficiente e facilita para os golpistas escaparem com esses esquemas.

A Meta provavelmente permite muito conteúdo fraudulento em seu… pic.twitter.com/nVCxJh7X8E

— Nova Pov (@NovaPovNP) 6 de junho de 2025

A postagem acumulou mais de 600.000 visualizações antes de ser sinalizada.

Apesar dos relatos, a Meta não priorizou sua remoção, e o conteúdo permaneceu online.

Quando o usuário apelou para a Meta, novamente não recebeu uma revisão humana em tempo hábil—levando o usuário a escalar a questão para o Conselho de Supervisão.

A ascensão da tecnologia de deepfake gera preocupação

A Meta enfrentou críticas repetidas sobre sua gestão de deepfakes de celebridades.

No mês passado, a atriz Jamie Lee Curtis desafiou publicamente o CEO Mark Zuckerberg no Instagram após um anúncio gerado por IA usando sua imagem aparecer na plataforma.

Enquanto a Meta desativou o anúncio, deixou a postagem original intacta.

Veja esta postagem no Instagram

Uma postagem compartilhada por Jamie Lee Curtis (@jamieleecurtis)

O Conselho de Supervisão observou que apenas equipes especializadas dentro da Meta têm a autoridade para remover esse tipo de conteúdo, destacando uma questão mais ampla de aplicação inconsistente.

O Conselho instou a Meta a aplicar suas políticas antifraude de forma mais rigorosa e uniforme em seus serviços.

Esse escrutínio ocorre em meio a crescentes esforços legislativos para combater o abuso de deepfakes.

Em maio, o presidente Donald Trump assinou a lei bipartidária Take It Down Act, exigindo que as plataformas removam imagens íntimas geradas por IA sem consentimento em até 48 horas.

A lei aborda um aumento na pornografia de deepfake e abuso baseado em imagem direcionado a celebridades e menores.

Notavelmente, o próprio Trump foi recentemente o alvo de um deepfake viral retratando-o defendendo que dinossauros deveriam proteger a fronteira sul dos EUA—um exemplo de como a tecnologia de deepfake continua a desafiar os limites da verdade e da desinformação.

Quão preparadas estão as plataformas e os legisladores para acompanhar essa ameaça em rápida evolução?