Secondo PANews, OpenAI ha annunciato il lancio del 'Safety Evaluations Hub' per migliorare la sicurezza e la trasparenza dei suoi modelli. Questa iniziativa mira a fornire aggiornamenti continui sulle prestazioni di sicurezza dei modelli di OpenAI riguardo a contenuti dannosi, attacchi di jailbreak, generazione di allucinazioni e priorità delle istruzioni. A differenza delle schede di sistema che divulgano i dati solo una volta durante il rilascio del modello, l'hub offrirà aggiornamenti periodici allineati con gli aggiornamenti del modello, consentendo confronti tra modelli. L'obiettivo è migliorare la comprensione della comunità sulla sicurezza dell'IA e sulla trasparenza normativa. Attualmente, GPT-4.5 e GPT-4o sono notati per le loro prestazioni eccezionali nel resistere agli attacchi di jailbreak e nel mantenere l'accuratezza fattuale.