De acordo com o Cointelegraph, a gigante das mídias sociais Meta introduziu dois modelos de inteligência artificial (IA) para edição e geração de conteúdo. O primeiro modelo, Emu Video, é capaz de gerar videoclipes baseados em entradas de texto e imagem, aproveitando o modelo Emu anterior do Meta. O segundo modelo, Emu Edit, tem foco na manipulação de imagens, prometendo mais precisão na edição de imagens. Embora ainda em fase de pesquisa, Meta acredita que esses modelos têm casos de uso potenciais para criadores, artistas e animadores.
O Emu Video foi treinado usando uma abordagem fatorada, dividindo o processo de treinamento em duas etapas para permitir que o modelo respondesse a diferentes entradas. Essa abordagem permite que o modelo gere vídeo com eficiência, condicionado tanto ao texto quanto às imagens geradas. O Emu Video pode animar imagens com base em um prompt de texto, usando apenas dois modelos de difusão para gerar vídeos 512x512 de quatro segundos de duração a 16 quadros por segundo. O Emu Edit, por outro lado, permite aos usuários realizar diversas tarefas de manipulação de imagens, como remover ou adicionar fundos, transformações de cores e geometrias e edição local e global. Emu Edit metatreinado usando um conjunto de dados de 10 milhões de imagens sintetizadas, cada uma com uma imagem de entrada, uma descrição da tarefa e a imagem de saída direcionada.
O modelo Emu da Meta foi treinado usando 1,1 bilhão de dados, incluindo fotos e legendas compartilhadas por usuários no Facebook e Instagram. No entanto, os reguladores estão a examinar de perto as ferramentas baseadas em IA da Meta, levando a empresa a adotar uma abordagem de implementação cautelosa. A Meta anunciou recentemente que não permitiria que campanhas políticas e anunciantes usassem suas ferramentas de IA para criar anúncios no Facebook e Instagram, embora as regras gerais de publicidade da plataforma não abordem especificamente a IA.