Selon PANews, OpenAI a annoncé le lancement du 'Hub d'Évaluations de Sécurité' pour améliorer la sécurité et la transparence de ses modèles. Cette initiative vise à fournir des mises à jour continues sur la performance de sécurité des modèles d'OpenAI concernant le contenu nuisible, les attaques de jailbreak, la génération d'hallucinations et la priorisation des instructions. Contrairement aux cartes système qui divulguent des données uniquement une fois lors de la sortie du modèle, le hub offrira des mises à jour périodiques alignées avec les mises à jour du modèle, permettant des comparaisons entre modèles. L'objectif est d'améliorer la compréhension de la communauté sur la sécurité de l'IA et la transparence réglementaire. Actuellement, GPT-4.5 et GPT-4o se distinguent par leur performance exceptionnelle à résister aux attaques de jailbreak et à maintenir l'exactitude des faits.