De acordo com o Cointelegraph, os países industrializados do Grupo dos Sete (G7) devem chegar a um acordo sobre um código de conduta de inteligência artificial (IA) para desenvolvedores em 30 de outubro. O código consiste em 11 pontos que visam promover “IA segura, protegida e confiável”. em todo o mundo” e ajudando a “aproveitar” os benefícios da IA ao mesmo tempo que aborda e soluciona os riscos que ela representa. O plano foi elaborado pelos líderes do G7 em setembro e oferece orientação voluntária para organizações que desenvolvem sistemas avançados de IA, incluindo modelos básicos e sistemas generativos de IA.
O código também sugere que as empresas divulguem relatórios sobre as capacidades, limitações, uso e uso indevido dos sistemas que estão sendo construídos, e recomenda controles de segurança robustos para esses sistemas. Os países do G7 incluem Canadá, França, Alemanha, Itália, Japão, Reino Unido, Estados Unidos e União Europeia. O G7 deste ano ocorreu em Hiroshima, Japão, com uma reunião realizada entre os Ministros Digitais e de Tecnologia participantes nos dias 29 e 30 de abril. Os tópicos abordados incluíram tecnologias emergentes, infraestrutura digital e IA, com um item da agenda especificamente dedicado à IA responsável e à IA global governança.
O código de conduta da IA do G7 surge num momento em que governos de todo o mundo tentam navegar pela emergência da IA, equilibrando as suas capacidades úteis com as suas preocupações. A UE foi um dos primeiros órgãos de governo a estabelecer diretrizes com a sua histórica Lei da UE sobre IA, que teve o seu primeiro projeto aprovado em junho. Em 26 de outubro, as Nações Unidas estabeleceram um comité consultivo de 39 membros para abordar questões relacionadas com a regulamentação global da IA. O governo chinês também lançou o seu próprio regulamento sobre IA, que começou a entrar em vigor em agosto. De dentro da indústria, a OpenAI, desenvolvedora do popular chatbot de IA ChatGPT, anunciou planos para criar uma equipe de “preparação” para avaliar uma série de riscos relacionados à IA.