Spanish English Eesti French German Italian Portuguese
Marketing Social
InicioIAInvestigadores crean un rival abierto de modelo de 'razonamiento' O1 de OpenAI...

Investigadores crean un rival abierto de modelo de ‘razonamiento’ O1 de OpenAI por menos de $50

Los investigadores de IA en Stanford y la Universidad de Washington pudieron capacitar un modelo de «razonamiento» de IA por menos de $50 en coste de computación en la nube, según un nuevo trabajo de investigación presentado recientemente.

El modelo conocido como S1 se ejecuta de manera similar a los modelos de razonamiento de vanguardia, como Openi’s O1 y Deepseek’s R1, con pruebas que miden las matemáticas y las habilidades de codificación. El modelo S1 está disponible en Github junto con los datos y el código utilizados para entrenarlos.

El equipo detrás de S1 dijo que crearon el modelo AI a través de la destilación, un proceso para extraer las capacidades de «razonamiento» de otro modelo de IA entrenado en sus respuestas. Los investigadores dijeron que S1 está destilado de uno de los modelos de razonamiento de Google, Gemini 2.0 Flash Thinking Experimental. La destilación es el mismo enfoque que los investigadores de Berkeley usaron para crear un modelo de razonamiento de IA por alrededor de $450 el mes pasado.

Para algunos, la idea de que algunos investigadores sin millones de dólares detrás de ellos pueden innovar en el espacio de IA es emocionante. Pero S1 plantea preguntas reales sobre la mercantilización de los modelos de IA. ¿Dónde está el diferencial si alguien puede replicar de cerca un modelo multimillonario con un coste relativo?

Como era de esperar, los grandes laboratorios de IA no están contentos. OpenAI ha acusado a DeepSeek de aprovechar de manera incorrecta de su API a efectos de destilación del modelo.

Los investigadores detrás de S1 buscaban encontrar el enfoque más simple para lograr un fuerte rendimiento de razonamiento y «escalado en los tiempo de prueba», o permitiendo que un modelo de IA piense más antes de que responda una pregunta. Estos fueron algunos de los avances en el O1 de OpenAi, que DeepSeek y otros laboratorios de IA han tratado de replicar a través de varias técnicas.

El documento S1 sugiere que los modelos de razonamiento pueden destilarse con un conjunto de datos relativamente pequeño utilizando un proceso llamado ajuste fino supervisado (SFT), en el que se instruye explícitamente un modelo de IA para imitar ciertos comportamientos en un conjunto de datos. SFT tiende a ser más barato que el método de aprendizaje de refuerzo a gran escala que DeepSeek empleó para capacitar su respuesta a OpenAi’s O1, R1.

Google ofrece acceso gratuito a Gemini 2.0 Flash Thinking Experimental, aunque con límites de velocidad diaria, a través de su plataforma Google AI Studio. Sin embargo, sus términos prohíben la ingeniería inversa de sus modelos para desarrollar servicios que compitan con las propias ofertas de IA de Google.

S1 se basa en un modelo de IA pequeño y listo para usar del Lab AI de Alibaba Qwen, que está disponible para descargar de forma gratuita. Para entrenar S1, los investigadores crearon un conjunto de datos de solo 1,000 preguntas cuidadosamente seleccionadas, combinadas con respuestas a esas preguntas, así como al proceso de «pensamiento» detrás de cada respuesta de Gemini 2.0 Flash Thinking Experimental de Google.

Después del entrenamiento S1, que tomó menos de 30 minutos usando 16 GPU H100 NVIDIA, S1 logró un fuerte rendimiento en ciertos puntos de referencia de IA, según los investigadores. Niklas Manennighoff, un investigador de Stanford que trabajó en el proyecto, dijo que podría alquilar el cómputo necesario hoy por alrededor de $ 20.

Los investigadores usaron un ingenioso truco para que S1 verifique su trabajo y extienda su tiempo de «pensamiento»: le dijeron que esperara. Agregar la palabra «esperar» durante el razonamiento de S1 ayudó al modelo a llegar a respuestas un poco más precisas, según el documento.

En 2025, Meta, Google y Microsoft planifican invertir cientos de miles de millones de dólares en infraestructura de IA que se destinará parcialmente para entrenar modelos de IA de próxima generación. Ese nivel de inversión aún puede ser necesario para impulsar la innovación de IA. La destilación ha demostrado ser un buen método para recrear a bajo precio las capacidades de un modelo de IA, pero no crea nuevos modelos de IA sensiblemente mejores que lo que está disponible hoy en día.

RELACIONADOS

SUSCRÍBETE A TRPLANE.COM

Publica en TRPlane.com

Si tienes alguna historia interesante sobre transformación, IT, digital, etc con cabida en TRPlane.com por favor envíanosla y la compartiremos con toda la Comunidad

MÁS PUBLICACIONES

Activar Notificaciones OK No gracias