De acordo com o Cointelegraph: OpenAI e Microsoft desmantelaram cooperativamente cinco ataques cibernéticos vinculados a diferentes grupos maliciosos ligados ao Estado. Como criadora do chatbot de IA ChatGPT, a OpenAI fez parceria com seu principal investidor, a Microsoft, para combater tentativas de hackers aproveitando modelos de linguagem grande (LLMs) de IA.

A Microsoft sinalizou grupos de hackers relacionados à inteligência militar russa, à Guarda Revolucionária do Irã e a agências governamentais na China e na Coreia do Norte, que estariam supostamente explorando o uso de LLMs para suas iniciativas de hackers. Os LLMs usam grandes quantidades de dados de texto para gerar respostas semelhantes às humanas.

A OpenAI relata que os cinco ataques cibernéticos encontrados estavam ligados a dois grupos associados à China, Charcoal Typhoon e Salmon Typhoon, com ligações adicionais com Crimson Sandstorm do Irã, Emerald Sleet da Coreia do Norte e Forest Blizzard da Rússia.

Os grupos pretendiam usar o ChatGPT-4 para fins como pesquisa de ferramentas de segurança cibernética, depuração de código, geração de scripts, realização de campanhas de phishing, tradução de documentos técnicos, evasão de detecção de malware e estudo de comunicação por satélite e tecnologia de radar. Ao detectar esses esforços, as contas relevantes foram desativadas.

A OpenAI reconhece a dificuldade em prevenir todo uso malévolo de seus sistemas, mesmo tendo evitado esses incidentes com sucesso. À luz do aumento de atividades maliciosas que aproveitam deepfakes gerados por IA após o lançamento do ChatGPT, os reguladores estão intensificando o escrutínio dos desenvolvedores de IA generativa.

Apesar de reforçarem as suas medidas de segurança cibernética e implementarem proteções contra conteúdos impróprios ou prejudiciais do ChatGPT, os hackers descobriram formas de circunscrever estas barreiras e manipular o chatbot para gerar conteúdo impróprio. Em resposta, mais de 200 entidades, incluindo OpenAI, Microsoft, Anthropic e Google, uniram esforços com a administração Biden para estabelecer o AI Safety Institute e o United States AI Safety Institute Consortium (AISIC) para promover o desenvolvimento seguro da IA ​​e combater Ameaças à segurança geradas por IA.