De acordo com a ShibDaily, a OpenAI tem estado em discussões com a Administração de Alimentos e Medicamentos dos EUA (FDA) sobre a ampliação do uso de inteligência artificial (IA) pela agência para melhorar os processos de avaliação de medicamentos. As discussões supostamente se concentram em uma potencial iniciativa de IA chamada 'cderGPT', destinada a apoiar o Centro de Avaliação de Medicamentos da FDA. Esta iniciativa faz parte de um plano mais amplo para integrar a IA de forma mais extensa nas operações da FDA, com uma meta estabelecida pelo comissário da FDA, Martin A. Makary, de escalar significativamente a implementação de IA até 30 de junho.

A movimentação da FDA para acelerar a integração da IA reflete seu compromisso em transformar a avaliação e aprovação de medicamentos nos Estados Unidos. No entanto, essa rápida expansão levantou preocupações sobre como a supervisão regulatória acompanhará os avanços tecnológicos. A urgência da expansão é atribuída ao sucesso relatado do programa piloto da FDA que testa o software de IA. Apesar disso, a FDA ainda não divulgou detalhes abrangentes sobre o escopo, a metodologia ou os resultados do programa piloto, deixando questões sobre sua rigorosidade e resultados sem resposta.

A FDA garante que seus sistemas de IA seguirão protocolos rigorosos de segurança da informação e estarão alinhados com as políticas existentes da agência. No entanto, os detalhes específicos sobre as salvaguardas em vigor permanecem limitados. Funcionários enfatizam que a IA destina-se a aumentar, e não a substituir, a expertise humana, com o objetivo de melhorar a supervisão regulatória ao aprimorar previsões de toxicidades e eventos adversos. À medida que a IA se torna mais integrada aos sistemas regulatórios, manter a confiança pública exigirá transparência, responsabilidade e comunicação clara. As partes interessadas em saúde, tecnologia e governo estão monitorando de perto esses desenvolvimentos para garantir que a inovação apoie a segurança pública e a confiança.