OpenAI lanza un centro de evaluaciones de seguridad para mejorar la transparencia de los modelos de IA

Según PANews, OpenAI ha anunciado el lanzamiento del Centro de Evaluaciones de Seguridad para mejorar la seguridad y la transparencia de sus modelos. Esta iniciativa busca proporcionar actualizaciones continuas sobre el rendimiento de seguridad de los modelos de OpenAI en relación con contenido dañino, ataques de jailbreak, generación de alucinaciones y priorización de instrucciones. A diferencia de las tarjetas de sistema, que solo divulgan datos una vez durante el lanzamiento del modelo, el centro ofrecerá actualizaciones periódicas en consonancia con las actualizaciones del modelo, lo que permitirá comparaciones entre modelos. El objetivo es mejorar la comprensión de la comunidad sobre la seguridad de la IA y la transparencia regulatoria. Actualmente, GPT-4.5 y GPT-4o destacan por su excelente rendimiento en la resistencia a ataques de jailbreak y el mantenimiento de la precisión fáctica.