Według ShibDaily, OpenAI prowadzi rozmowy z amerykańską Agencją Żywności i Leków (FDA) na temat rozszerzenia wykorzystania sztucznej inteligencji (AI) w celu ulepszenia procesów oceny leków. Rozmowy koncentrują się podobno na potencjalnej inicjatywie AI nazwanej 'cderGPT', mającej na celu wspieranie Centrum Oceny Leków FDA. Inicjatywa ta jest częścią szerszego planu na bardziej intensywne włączenie AI w operacje FDA, z celem ustalonym przez Komisarza FDA Martina A. Makary'ego, aby znacznie zwiększyć wdrażanie AI do 30 czerwca.

Posunięcie FDA w celu przyspieszenia integracji AI odzwierciedla jego zobowiązanie do przekształcenia oceny i zatwierdzania leków w Stanach Zjednoczonych. Jednakże, to szybkie rozszerzenie budzi obawy, jak nadzór regulacyjny nadąży za postępem technologicznym. Pilność rozszerzenia przypisywana jest rzekomemu sukcesowi pilotażowego programu FDA testującego oprogramowanie AI. Mimo to, FDA nie ujawnili jeszcze szczegółowych informacji na temat zakresu, metodologii ani wyników programu pilotażowego, pozostawiając pytania dotyczące jego rzetelności i wyników bez odpowiedzi.

FDA zapewnia, że jego systemy AI będą ściśle przestrzegać protokołów bezpieczeństwa informacji i będą zgodne z istniejącymi politykami agencji. Jednak konkretne szczegóły dotyczące stosowanych zabezpieczeń pozostają ograniczone. Urzędnicy podkreślają, że AI ma na celu wspomaganie, a nie zastępowanie, ludzkiej wiedzy, dążąc do poprawy nadzoru regulacyjnego poprzez ulepszanie prognoz dotyczących toksyczności i działań niepożądanych. W miarę jak AI staje się bardziej zintegrowane z systemami regulacyjnymi, utrzymanie zaufania publicznego będzie wymagało przejrzystości, odpowiedzialności i jasnej komunikacji. Interesariusze z sektora ochrony zdrowia, technologii i rządu ściśle monitorują te wydarzenia, aby zapewnić, że innowacje wspierają bezpieczeństwo publiczne i zaufanie.