Según PANews, OpenAI ha anunciado el lanzamiento del 'Centro de Evaluaciones de Seguridad' para mejorar la seguridad y transparencia de sus modelos. Esta iniciativa tiene como objetivo proporcionar actualizaciones continuas sobre el rendimiento de seguridad de los modelos de OpenAI en relación con contenido dañino, ataques de jailbreak, generación de alucinaciones y priorización de instrucciones. A diferencia de las tarjetas del sistema que divulgan datos solo una vez durante la publicación del modelo, el centro ofrecerá actualizaciones periódicas alineadas con las actualizaciones del modelo, lo que permitirá comparaciones entre modelos. El objetivo es mejorar la comprensión de la comunidad sobre la seguridad de la IA y la transparencia regulatoria. Actualmente, se destaca que GPT-4.5 y GPT-4o tienen un rendimiento excepcional en la resistencia a ataques de jailbreak y en el mantenimiento de la precisión fáctica.