Zgodnie z PANews, OpenAI ogłosiło plany wzmocnienia bezpieczeństwa biologicznego w miarę postępu swoich modeli AI w dziedzinie biologii. Firma współpracuje z globalnymi ekspertami i zorganizuje szczyt dotyczący bezpieczeństwa biologicznego w lipcu. OpenAI współpracuje z instytucjami takimi jak Los Alamos National Laboratory w Stanach Zjednoczonych, aby ocenić zastosowanie i ryzyko związane z AI w laboratoriach biologicznych.
OpenAI wdrożyło wiele środków bezpieczeństwa, w tym modele, które odrzucają niebezpieczne żądania, systemy wykrywania w czasie rzeczywistym, ręczne przeglądy oraz testy zespołu czerwonego. Firma wprowadza również surowsze kontrole wydania dla modeli wysokiego ryzyka. OpenAI dąży do współpracy z rządami, instytucjami badawczymi i firmami w celu wzmocnienia obrony przed zagrożeniami biologicznymi, zapewniając, że AI wspiera nauki przyrodnicze, skutecznie łagodząc potencjalne zagrożenia biologiczne.