Apple está explorando la opción de integrar modelos de lenguaje de terceros (LLMs) en Siri. El fabricante del iPhone ahora está en discusiones avanzadas con Anthropic y OpenAI después de haber mantenido conversaciones con Perplexity y Thinking Machines Lab para mejorar las capacidades de Siri.
Apple Inc. está supuestamente en discusiones avanzadas con Anthropic y OpenAI para potencialmente reformular su estrategia de IA existente integrando modelos de lenguaje de terceros (LLMs) en Siri.
El movimiento aún está en consideración, pero llega durante un período de creciente preocupación de que los “Modelos Fundamentales de Apple” no están cumpliendo con las expectativas, especialmente cuando se comparan con las capacidades de rápido desarrollo de productos de IA generativa como Claude de Anthropic y ChatGPT de OpenAI.
Las pruebas internas mostraron que Claude de Anthropic actualmente supera a los propios modelos de Apple.
Apple está considerando deshacerse de sus modelos de IA internos en Siri.
La evaluación de Apple de modelos de terceros supuestamente comenzó después de una interrupción en la gestión que hizo que las responsabilidades de Siri se trasladaran del jefe de IA, John Giannandrea, al jefe de ingeniería de software, Craig Federighi, y al ejecutivo de Vision Pro, Mike Rockwell.
Rockwell asumió el rol de ingeniería de Siri en marzo e inició la prueba de LLMs externos, incluyendo Claude, ChatGPT y Gemini de Google, para evaluar si podrían superar los sistemas internos de Apple.
Después de varias fases de prueba, los ejecutivos han encontrado que Claude de Anthropic es el candidato más prometedor para los requisitos de Siri. Esto llevó a Adrian Perica, el vicepresidente de desarrollo corporativo en Apple, a comenzar negociaciones con Anthropic.
Las discusiones han incluido solicitudes para versiones personalizadas de Claude y ChatGPT para ser entrenadas y desplegadas en los servidores de Apple Private Cloud Compute.
Anthropic está supuestamente buscando una tarifa de licencia anual de varios miles de millones de dólares que aumentaría significativamente con el tiempo, y esa solicitud ha complicado las conversaciones.
El posible cambio, aunque aún en revisión, es especialmente notable porque Apple se ha enorgullecido durante mucho tiempo de tener un control de extremo a extremo sobre sus productos, especialmente en cuestiones de privacidad y experiencia del usuario.
Siri ya utiliza ChatGPT para manejar algunas consultas basadas en búsqueda y las próximas funciones de generación de imágenes en iOS 26, pero el asistente en sí sigue construido sobre los modelos de Apple.
OpenAI había ofrecido previamente desarrollar modelos en el dispositivo para Apple, pero la compañía rechazó en ese momento.
Hasta ahora, se esperaba que la compañía lanzara un Siri mejorado en 2026, impulsado por sus modelos internos. Estos planes siguen en progreso bajo una iniciativa paralela conocida internamente como “LLM Siri.”
Las acciones de Apple subieron hasta un 3% después de que Bloomberg diera a conocer la noticia del posible cambio, lo que podría ser una señal de que los inversores ven asociaciones estratégicas como esta como un paso necesario para mantener el ritmo con competidores como Google y Samsung.
Emergen informes de problemas de moral y resistencia interna.
Mientras las discusiones de Apple con posibles socios parecen estar yendo en la dirección correcta, los problemas internos parecen estar desmoralizando a los trabajadores.
Un grupo de ingenieros liderado por Ruoming Pang y reportando a la directora senior de IA, Daphne Luong, que trabaja en los Modelos Fundamentales de Apple, han informado sentirse desmoralizados por las asociaciones externas de la compañía.
Sienten que explorar LLMs de terceros les culpa por las deficiencias de IA de Apple. Algunos incluso han considerado irse por ofertas más lucrativas de rivales como Meta y OpenAI, que supuestamente están ofreciendo paquetes de compensación anuales que van desde $10M hasta más de $40M.
Los empleados de Apple también tienen la creciente preocupación de que la dependencia de la compañía de modelos de terceros para Siri eventualmente se extienda a otras funciones de IA, lo que podría socavar cualquier inversión a largo plazo en la tecnología interna de Apple.
Tom Gunter, un investigador senior involucrado en el desarrollo del modelo de lenguaje grande de Apple, dejó la compañía la semana pasada después de ocho años.
El equipo de MLX que desarrolló el sistema de código abierto central de Apple para aprendizaje automático en sus chips también amenazó con renunciar. Sin embargo, después de negociaciones internas y contraofertas, acordaron quedarse.
Bloomberg informa que Apple ha archivado algunos proyectos internos por completo. Por ejemplo, Swift Assist, una herramienta LLM desarrollada por Apple para la generación de código en Xcode, fue cancelada hace aproximadamente un mes.
En cambio, Apple planea integrar modelos de codificación de terceros, incluyendo ChatGPT y Claude, en la nueva versión de Xcode que se espera para más tarde este año.
Los ejecutivos de Apple también están supuestamente divididos sobre hasta qué punto la compañía debería depender de proveedores de IA externos. Rockwell y Federighi parecen cada vez más abiertos a la integración de terceros a corto plazo, pero también creen que Apple debería mantener la propiedad de los modelos de IA a largo plazo, dado su papel central en futuros productos como robótica y dispositivos portátiles.
Mientras tanto, otros gigantes tecnológicos están haciendo estas asociaciones de terceros. Samsung, por ejemplo, ha marcado sus servicios de IA bajo la etiqueta “Galaxy AI”, pero utiliza Gemini de Google para muchas de las funciones subyacentes. Amazon utiliza Claude de Anthropic para impulsar algunas funciones de Alexa+.
Diferencia clave de Wire: la herramienta secreta que los proyectos de criptomonedas utilizan para obtener cobertura mediática garantizada.