Fuente: CryptoNewsNet
Título original: La jugada de IA de código abierto de Estados Unidos: Dos laboratorios, una pregunta—¿Puede competir EE. UU.?
Enlace Original:
Dos laboratorios de IA estadounidenses lanzaron modelos de código abierto esta semana, cada uno adoptando enfoques dramáticamente diferentes para el mismo problema: cómo competir con el dominio de China en los sistemas de IA accesibles al público.
Deep Cogito lanzó Cogito v2.1, un modelo masivo de 671 mil millones de parámetros que su fundador, Drishan Arora, llama “el mejor LLM de peso abierto por una empresa estadounidense.”
No tan rápido, contraatacó The Allen Institute for AI, que acaba de lanzar Olmo 3, presentándolo como “el mejor modelo base completamente abierto.” Olmo 3 cuenta con total transparencia, incluyendo sus datos de entrenamiento y código.
Irónicamente, el modelo insignia de Deep Cognito está construido sobre una base china. Arora reconoció que Cogito v2.1 “se bifurca del modelo base de Deepseek con licencia abierta de noviembre de 2024.”
Eso generó algunas críticas y un debate sobre si el ajuste de un modelo chino cuenta como un avance de la IA estadounidense, o si simplemente demuestra cuán atrás han quedado los laboratorios de EE. UU.
Sin embargo, las ganancias de eficiencia que muestra Cogito sobre DeepSeek son reales.
Deep Cognito afirma que Cogito v2.1 produce cadenas de razonamiento un 60% más cortas que DeepSeek R1, manteniendo un rendimiento competitivo.
Usando lo que Arora llama “Destilación y Amplificación Iteradas”—enseñando a los modelos a desarrollar una mejor intuición a través de bucles de auto-mejora—la startup entrenó su modelo en apenas 75 días con la infraestructura de RunPod y Nebius.
Si los puntos de referencia son ciertos, este sería el LLM de código abierto más poderoso actualmente mantenido por un equipo de EE. UU.
Por qué es importante
Hasta ahora, China ha estado marcando el ritmo en la IA de código abierto, y las empresas estadounidenses dependen cada vez más—ya sea en silencio o abiertamente—de los modelos base chinos para mantenerse competitivas.
Esa dinámica es arriesgada. Si los laboratorios chinos se convierten en la infraestructura predeterminada para la IA abierta en todo el mundo, las startups estadounidenses pierden independencia técnica, poder de negociación y la capacidad de dar forma a los estándares de la industria.
La inteligencia artificial de peso abierto determina quién controla los modelos en bruto de los que depende cada producto posterior.
En este momento, los modelos de código abierto chinos (DeepSeek, Qwen, Kimi, MiniMax) dominan la adopción global porque son baratos, rápidos, altamente eficientes y se actualizan constantemente.
Muchas startups en EE. UU. ya se basan en ellos, incluso cuando evitan admitirlo públicamente.
Eso significa que las empresas estadounidenses están construyendo negocios sobre propiedad intelectual extranjera, canales de capacitación extranjeros y optimizaciones de hardware extranjeras. Estratégicamente, eso coloca a Estados Unidos en la misma posición que una vez enfrentó con la fabricación de semiconductores: cada vez más dependiente de la cadena de suministro de otros.
El enfoque de Deep Cogito—comenzando desde un fork de DeepSeek—muestra el lado positivo ( de la rápida iteración ) y el lado negativo ( de la dependencia ).
El enfoque del Instituto Allen—construir Olmo 3 con total transparencia—muestra la alternativa: si EE. UU. quiere liderazgo en IA abierta, tiene que reconstruir la pila por sí mismo, desde los datos hasta las recetas de entrenamiento y los puntos de control. Eso requiere mucho trabajo y es lento, pero preserva la soberanía sobre la tecnología subyacente.
En teoría, si ya te gustaba DeepSeek y lo usas en línea, Cogito te dará mejores respuestas la mayor parte del tiempo. Si lo usas a través de API, estarás el doble de feliz, ya que pagarás menos dinero para generar buenas respuestas gracias a sus ganancias de eficiencia.
El Instituto Allen tomó la dirección opuesta. Toda la familia de modelos Olmo 3 llega con Dolma 3, un conjunto de datos de entrenamiento de 5.9 billones de tokens construido desde cero, además de código completo, recetas y puntos de control de cada etapa de entrenamiento.
La organización sin fines de lucro lanzó tres variantes de modelo—Base, Think e Instruct—con 7 mil millones y 32 mil millones de parámetros.
“La verdadera apertura en la IA no se trata solo de acceso, sino de confianza, responsabilidad y progreso compartido”, escribió el instituto.
Olmo 3-Think 32B es el primer modelo de razonamiento completamente abierto de esa escala, entrenado con aproximadamente una sexta parte de los tokens de modelos comparables como Qwen 3, mientras logra un rendimiento competitivo.
Deep Cognito aseguró $13 millones en financiamiento inicial liderado por Benchmark en agosto. La startup planea lanzar modelos de frontera de hasta 671 mil millones de parámetros entrenados con “significativamente más computación con mejores conjuntos de datos.”
Mientras tanto, Nvidia apoyó el desarrollo de Olmo 3, con la vicepresidenta Kari Briski llamándolo esencial para “que los desarrolladores escalen la IA con modelos abiertos, construidos en EE. UU.”
El instituto se entrenó en los clústeres de GPU H100 de Google Cloud, logrando un 2.5 veces menos requisitos de computación que Llama 3.1 8B de Meta.
Cogito v2.1 está disponible para pruebas en línea gratuitas. El modelo se puede descargar, pero ten cuidado: requiere una tarjeta muy potente para funcionar.
Olmo está disponible para pruebas. Los modelos se pueden descargar. Estos son más amigables para el consumidor, dependiendo de cuál elijas.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
La estrategia de IA de código abierto de EE. UU.: Dos laboratorios, una pregunta: ¿Puede competir EE. UU.?
Fuente: CryptoNewsNet Título original: La jugada de IA de código abierto de Estados Unidos: Dos laboratorios, una pregunta—¿Puede competir EE. UU.? Enlace Original: Dos laboratorios de IA estadounidenses lanzaron modelos de código abierto esta semana, cada uno adoptando enfoques dramáticamente diferentes para el mismo problema: cómo competir con el dominio de China en los sistemas de IA accesibles al público.
Deep Cogito lanzó Cogito v2.1, un modelo masivo de 671 mil millones de parámetros que su fundador, Drishan Arora, llama “el mejor LLM de peso abierto por una empresa estadounidense.”
No tan rápido, contraatacó The Allen Institute for AI, que acaba de lanzar Olmo 3, presentándolo como “el mejor modelo base completamente abierto.” Olmo 3 cuenta con total transparencia, incluyendo sus datos de entrenamiento y código.
Irónicamente, el modelo insignia de Deep Cognito está construido sobre una base china. Arora reconoció que Cogito v2.1 “se bifurca del modelo base de Deepseek con licencia abierta de noviembre de 2024.”
Eso generó algunas críticas y un debate sobre si el ajuste de un modelo chino cuenta como un avance de la IA estadounidense, o si simplemente demuestra cuán atrás han quedado los laboratorios de EE. UU.
Sin embargo, las ganancias de eficiencia que muestra Cogito sobre DeepSeek son reales.
Deep Cognito afirma que Cogito v2.1 produce cadenas de razonamiento un 60% más cortas que DeepSeek R1, manteniendo un rendimiento competitivo.
Usando lo que Arora llama “Destilación y Amplificación Iteradas”—enseñando a los modelos a desarrollar una mejor intuición a través de bucles de auto-mejora—la startup entrenó su modelo en apenas 75 días con la infraestructura de RunPod y Nebius.
Si los puntos de referencia son ciertos, este sería el LLM de código abierto más poderoso actualmente mantenido por un equipo de EE. UU.
Por qué es importante
Hasta ahora, China ha estado marcando el ritmo en la IA de código abierto, y las empresas estadounidenses dependen cada vez más—ya sea en silencio o abiertamente—de los modelos base chinos para mantenerse competitivas.
Esa dinámica es arriesgada. Si los laboratorios chinos se convierten en la infraestructura predeterminada para la IA abierta en todo el mundo, las startups estadounidenses pierden independencia técnica, poder de negociación y la capacidad de dar forma a los estándares de la industria.
La inteligencia artificial de peso abierto determina quién controla los modelos en bruto de los que depende cada producto posterior.
En este momento, los modelos de código abierto chinos (DeepSeek, Qwen, Kimi, MiniMax) dominan la adopción global porque son baratos, rápidos, altamente eficientes y se actualizan constantemente.
Muchas startups en EE. UU. ya se basan en ellos, incluso cuando evitan admitirlo públicamente.
Eso significa que las empresas estadounidenses están construyendo negocios sobre propiedad intelectual extranjera, canales de capacitación extranjeros y optimizaciones de hardware extranjeras. Estratégicamente, eso coloca a Estados Unidos en la misma posición que una vez enfrentó con la fabricación de semiconductores: cada vez más dependiente de la cadena de suministro de otros.
El enfoque de Deep Cogito—comenzando desde un fork de DeepSeek—muestra el lado positivo ( de la rápida iteración ) y el lado negativo ( de la dependencia ).
El enfoque del Instituto Allen—construir Olmo 3 con total transparencia—muestra la alternativa: si EE. UU. quiere liderazgo en IA abierta, tiene que reconstruir la pila por sí mismo, desde los datos hasta las recetas de entrenamiento y los puntos de control. Eso requiere mucho trabajo y es lento, pero preserva la soberanía sobre la tecnología subyacente.
En teoría, si ya te gustaba DeepSeek y lo usas en línea, Cogito te dará mejores respuestas la mayor parte del tiempo. Si lo usas a través de API, estarás el doble de feliz, ya que pagarás menos dinero para generar buenas respuestas gracias a sus ganancias de eficiencia.
El Instituto Allen tomó la dirección opuesta. Toda la familia de modelos Olmo 3 llega con Dolma 3, un conjunto de datos de entrenamiento de 5.9 billones de tokens construido desde cero, además de código completo, recetas y puntos de control de cada etapa de entrenamiento.
La organización sin fines de lucro lanzó tres variantes de modelo—Base, Think e Instruct—con 7 mil millones y 32 mil millones de parámetros.
“La verdadera apertura en la IA no se trata solo de acceso, sino de confianza, responsabilidad y progreso compartido”, escribió el instituto.
Olmo 3-Think 32B es el primer modelo de razonamiento completamente abierto de esa escala, entrenado con aproximadamente una sexta parte de los tokens de modelos comparables como Qwen 3, mientras logra un rendimiento competitivo.
Deep Cognito aseguró $13 millones en financiamiento inicial liderado por Benchmark en agosto. La startup planea lanzar modelos de frontera de hasta 671 mil millones de parámetros entrenados con “significativamente más computación con mejores conjuntos de datos.”
Mientras tanto, Nvidia apoyó el desarrollo de Olmo 3, con la vicepresidenta Kari Briski llamándolo esencial para “que los desarrolladores escalen la IA con modelos abiertos, construidos en EE. UU.”
El instituto se entrenó en los clústeres de GPU H100 de Google Cloud, logrando un 2.5 veces menos requisitos de computación que Llama 3.1 8B de Meta.
Cogito v2.1 está disponible para pruebas en línea gratuitas. El modelo se puede descargar, pero ten cuidado: requiere una tarjeta muy potente para funcionar.
Olmo está disponible para pruebas. Los modelos se pueden descargar. Estos son más amigables para el consumidor, dependiendo de cuál elijas.