O Departamento de Eficiência Governamental (DOGE) de Elon Musk lançou discretamente uma versão adaptada de seu chatbot de IA Grok em agências federais, levantando alarmes sobre possíveis violações de privacidade e conflitos de interesse.

A Reuters citou três fontes dentro do DOGE dizendo que a equipe tem usado o Grok para filtrar e analisar dados governamentais sensíveis, gerando relatórios e insights a velocidades além dos métodos tradicionais.

DOGE viola ética com a movimentação da IA Grok

De acordo com os três insiders, engenheiros do DOGE instalaram parâmetros personalizados sobre o Grok, um chatbot que a xAI de Musk lançou no final de 2023, para acelerar a revisão de dados e automatizar a redação de relatórios.

“Eles alimentam com conjuntos de dados do governo, fazem perguntas complexas e obtêm resumos instantâneos.”

Um Insider.

Outro insider acrescentou que a equipe do DOGE incentivou os funcionários do Departamento de Segurança Interna a usar o Grok para análises internas, apesar de a ferramenta não ter a aprovação formal da agência.

O que não está claro é exatamente quais informações classificadas ou pessoalmente identificáveis foram carregadas no Grok ou quão fortemente ele foi treinado em registros federais. Se materiais sensíveis foram incluídos, a prática poderia violar estatutos federais de privacidade e regras de conflito de interesse.

Cinco especialistas em ética e tecnologia alertam que tal acesso pode dar às empresas de Musk insights desproporcionais sobre dados de contratos não públicos e até mesmo ajudar a refinar o Grok para ganho privado.

Em teoria, qualquer modelo de IA treinado em conjuntos de dados governamentais confidenciais deve navegar por rigorosas salvaguardas legais. Protocolos de compartilhamento de dados geralmente envolvem múltiplas aprovações e supervisão para evitar divulgações não autorizadas.

Ao contornar esses controles, o DOGE corre o risco de expor detalhes pessoais de milhões de americanos e entregar à xAI um tesouro de informações do mundo real indisponíveis para concorrentes.

DOGE insiste que sua missão é eliminar desperdícios, fraudes e abusos. Um porta-voz do DHS disse à Reuters que o DOGE nunca pressionou a equipe a adotar qualquer ferramenta específica.

“Estamos focados na eficiência”, disse o porta-voz. Mas duas fontes contestam isso, afirmando que, nas últimas semanas, representantes do DOGE pressionaram divisões do DHS para pilotar o Grok para tarefas que vão desde a análise de carga de imigração até a previsão orçamentária, mesmo após o DHS bloquear abruptamente todas as plataformas de IA comerciais devido a temores de vazamento de dados.

Sob a política atual do DHS, os funcionários podem usar chatbots comerciais apenas para trabalho não classificado e não confidencial, enquanto uma IA sob medida do DHS lida com registros sensíveis. Mas quando o ChatGPT e outros foram desativados em maio, os avanços do DOGE ocorreram em uma zona cinza legal: o bot interno do DHS permaneceu ativo, mas o Grok nunca foi formalmente integrado.

Musk está usando o DOGE para centralizar o controle?

Além do DHS, o alcance do DOGE se estende às redes do Departamento de Defesa, onde cerca de uma dúzia de analistas foram informados de que uma ferramenta de IA de terceiros estava monitorando sua atividade. Embora os porta-vozes do DoD tenham negado que o DOGE orientou qualquer implantação de IA, e-mails departamentais e trocas de mensagens de texto obtidos pela Reuters sugerem o contrário.

Críticos veem essas ações como ilustrativas da estratégia mais ampla de Musk de aproveitar a IA para centralizar o controle sobre a burocracia e depois monetizar o fluxo de dados resultante.

“Há uma clara aparência de auto-interesse.”

Richard Painter, um professor de ética governamental.

Se Musk ordenou diretamente a implantação do Grok, ele pode estar violando estatutos criminais que proíbem oficiais de influenciar decisões que beneficiem seus interesses privados.

No centro do debate está o papel dual do Grok como um chatbot voltado para o público no X e um motor de análise experimental dentro das paredes do governo. O site da xAI até sugere que interações de usuários podem ser monitoradas “para fins comerciais específicos”, sugerindo que cada consulta federal poderia alimentar o ciclo de aprendizado do Grok.

Dois funcionários do DOGE, Kyle Schutt e Edward Coristine, sendo este último conhecido online como “Big Balls”, lideraram grande parte da iniciativa de IA. Embora tenham se recusado a comentar, seus esforços se encaixam em um padrão; ao longo do último ano, o DOGE demitiu milhares de funcionários de carreira, assumiu o controle de bancos de dados seguros e defendeu a IA como a ferramenta definitiva para a reforma burocrática.

Defensores da privacidade alertam que integrar IA não verificada em ambientes de segurança nacional de alto risco é uma receita para vazamentos de dados, roubo de identidade e exploração por adversários estrangeiros.

“Esta é uma ameaça à privacidade tão séria quanto se pode imaginar”, diz Albert Fox Cahn do Projeto de Supervisão de Tecnologia de Vigilância.

Há também temores de que, com pouca transparência e poucos limites, o experimento de IA do DOGE possa reformular a governança de dados federais, quer o público perceba ou não.

Academia Cryptopolitan: Cansado das oscilações do mercado? Aprenda como DeFi pode ajudá-lo a construir uma renda passiva estável. Inscreva-se agora