De acordo com o Cointelegraph, a gigante da mídia social Meta dissolveu sua divisão de IA Responsável (RAI), que se dedicava a regular a segurança de seus empreendimentos de inteligência artificial durante o desenvolvimento e implantação. Muitos membros da equipe RAI fizeram a transição para funções na divisão de produtos de IA generativa da empresa, enquanto alguns ingressaram na equipe de infraestrutura de IA. Fundada em fevereiro, a equipe de IA Generativa da Meta se concentra no desenvolvimento de produtos que geram linguagem e imagens para imitar versões feitas pelo homem.
A reestruturação da divisão RAI ocorre no momento em que a Meta se aproxima do fim do seu “ano de eficiência”, como o chamou o CEO Mark Zuckerberg durante uma teleconferência de resultados em fevereiro. Isso resultou em uma série de demissões, fusões de equipes e redistribuições na empresa. Garantir a segurança da IA tornou-se uma prioridade para os principais intervenientes no espaço, especialmente porque os reguladores e as autoridades prestam mais atenção aos potenciais danos da tecnologia nascente. Em julho, Anthropic, Google, Microsoft e OpenAI formaram um grupo industrial focado em estabelecer padrões de segurança à medida que a IA avança.
Apesar da redistribuição dos membros da equipa RAI dentro da empresa, eles continuam empenhados em apoiar o desenvolvimento e utilização responsável da IA, enfatizando o investimento contínuo nesta área. A Meta introduziu recentemente dois modelos generativos alimentados por IA. O primeiro, Emu Video, aproveita o modelo Emu anterior do Meta e pode gerar videoclipes com base em entradas de texto e imagem. O segundo modelo, Emu Edit, tem foco na manipulação de imagens, prometendo mais precisão na edição de imagens. O Cointelegraph entrou em contato com a Meta para obter mais informações, mas não recebeu feedback até o momento da publicação.