La plataforma de redes sociales china RedNote, también conocida en el país como Xiaohongshu, lanzó su primer modelo de lenguaje grande (LLM) de código abierto el viernes pasado. El nuevo modelo, denominado “dots.llm1”, contiene un total de 142 mil millones de parámetros, pero solo se activan supuestamente 14 mil millones para cada respuesta.

Según el medio de noticias asiático South China Morning Post, esta arquitectura podría ayudar al LLM a equilibrar el rendimiento con la rentabilidad para rivalizar con competidores como ChatGPT de OpenAI, mientras reduce el gasto tanto en entrenamiento como en inferencia.

El Laboratorio de Inteligencia Humana interno de RedNote desarrolló el LLM, o “hi lab”, que evolucionó del equipo anterior de inteligencia artificial de la empresa. RedNote dijo que su modelo supera a otros sistemas de código abierto en la comprensión del idioma chino, superando al Qwen2.5-72B-Instruct de Alibaba y al DeepSeek-V3.

No se utilizaron datos sintéticos en el preentrenamiento

RedNote emitió un comunicado para explicar los estándares detrás del entrenamiento de su LLM. A diferencia de algunos otros modelos en el mercado, la empresa afirmó que no se utilizaron datos sintéticos durante el preentrenamiento.

Los desarrolladores insistieron en que dots.llm1 fue entrenado con 11.2 billones de tokens de datos no sintéticos, un enfoque que RedNote dice que es imperativo para que el modelo logre una mayor fidelidad y resultados más confiables.

La empresa también ha comenzado a probar un asistente de investigación de IA llamado Diandian en su plataforma. Diandian, lanzado a través de un cuadro de diálogo dentro de la aplicación, presenta una función de “investigación profunda” y está impulsado por uno de los modelos internos de RedNote. Sin embargo, la empresa aún no ha confirmado si este asistente se basa en dots.llm1.

RedNote expande su alcance global tras el lanzamiento de LLM

El anuncio de IA de código abierto de RedNote llegó justo un día antes de la apertura de una nueva oficina de la empresa en Hong Kong, la primera fuera de China continental. La nueva ubicación está situada en Times Square, un área comercial en Causeway Bay.

“La presencia de RedNote mejorará las interacciones entre creadores de contenido locales, marcas y organizaciones, y promoverá intercambios culturales entre Oriente y Occidente y el desarrollo del marketing de contenido entre Hong Kong, el continente y los mercados globales”, dijo Alpha Lau, Director General de Promoción de Inversiones de InvestHK, a los periodistas durante una conferencia de prensa el sábado pasado.

RedNote, con sede en Shanghái, es una de las plataformas de redes sociales más utilizadas en China, con 300 millones de usuarios activos mensuales. Según funcionarios de la empresa, la expansión es parte de los planes para aumentar el alcance de RedNote en el extranjero, en preparación para una posible prohibición de TikTok en Estados Unidos.

Las empresas de IA chinas eligen tecnología de código abierto

RedNote se une a la lista de empresas chinas que han avanzado hacia hacer que sus modelos de lenguaje grande sean más de código abierto. Más empresas están tratando de reflejar el éxito de modelos de bajo costo y alto rendimiento como los lanzados por la startup DeepSeek.

A principios de este año, DeepSeek lanzó su modelo R1 de código abierto, que encabezó las descargas en varias tiendas de aplicaciones por ofrecer resultados sólidos a una fracción del costo asociado con los LLM occidentales.

Los gigantes tecnológicos Alibaba, Tencent y ByteDance han realizado inversiones significativas en infraestructura de IA. Alibaba, por ejemplo, ha lanzado varios nuevos LLM como parte de su serie Qwen, incluidos los últimos modelos de incrustación Qwen3. Estos soportan más de 100 idiomas capaces de recuperación de código y lenguaje.

Alibaba dijo que los modelos Qwen3 han mejorado la eficiencia y el rendimiento en sistemas de incrustación y reordenamiento. Hablando a principios de este año, Wang Jian, fundador de Alibaba Cloud, afirmó que el progreso de los modelos de lenguaje grande está superando las expectativas y continuará haciéndolo.

Wang mencionó startups como DeepSeek como ejemplos de cómo los jóvenes innovadores resuelven problemas con enfoques creativos.

Según Wang, ZEROSEARCH de Alibaba demuestra cómo la innovación puede reducir significativamente los costos de desarrollo. ZEROSEARCH, presentado en mayo, está diseñado para simular el comportamiento de los motores de búsqueda durante el entrenamiento sin realizar llamadas a APIs reales. La empresa afirma que esto puede reducir los costos de entrenamiento hasta en un 90%.

Academia Cryptopolitan: ¿Quieres hacer crecer tu dinero en 2025? Aprende cómo hacerlo con DeFi en nuestra próxima clase web. Reserva tu lugar