
OpenAI se alista para lanzar un modelo de razonamiento avanzado, el cual podrá ser personalizable hasta cierto grado, sin revelar aspectos importantes de su código.
***
- OpenAI llevará la IA al siguiente nivel, con su nuevo modelo “open-weight” y razonamiento avanzado
- El modelo competirá con alternativas de código abierto como Llama de Meta y Gemma de Google.
- Podrá ejecutarse localmente y permitirá cierto grado de personalización.
- OpenAI buscará retroalimentación directa de desarrolladores a través de eventos globales.
OpenAI, la empresa detrás de ChatGPT, anunció un importante cambio de rumbo: Lanzará un nuevo modelo de lenguaje “open-weight” y razonamiento avanzado en los próximos meses.
El anuncio en cuestión lo dio a conocer el CEO de la empresa, Sam Altman, a través de una publicación en X, en la que señaló que es un paso largamente considerado y ahora considerado prioritario.
“Estamos planeando lanzar nuestro primer modelo de lenguaje con pesos abiertos desde GPT-2”, escribió Altman. “Hemos pensado en esto durante mucho tiempo, pero otras prioridades tomaron precedencia. Ahora sentimos que es importante hacerlo”.
Una nueva etapa de apertura, sin llegar al código abierto completo
A diferencia de un modelo de código abierto —donde los desarrolladores tienen acceso al código fuente, los datos de entrenamiento y la arquitectura completa—, un modelo “open-weight” (peso abierto) ofrece una apertura más limitada.
Esta modalidad permite a los usuarios ajustar (fine-tune) de acuerdo a sus necesidades, pero no será posible reconstruirlo desde cero, ya que no tendrán acceso a componentes esenciales como el conjunto de datos original o los detalles arquitectónicos completos.
La estrategia representa un giro significativo con respecto a la postura más que OpenAI ha adoptado en los últimos años, las cual ha sido más conservadora, dado que sus modelos más potentes han sido accesibles únicamente mediante API.
La decisión se produce en un contexto de competencia creciente en el mundo de la inteligencia artificial, con rivales como Meta y su familia de modelos Llama, Google con su reciente Gemma (de capacidades multimodales), y el laboratorio chino DeepSeek, cuyo modelo open-source de razonamiento superó supuestamente a la versión o1 de OpenAI.
Altman reconoce el debate interno en OpenAI
La movida no ha sido del todo unánime dentro de la empresa. En una conversación reciente en Reddit, reseñada por Decrypt, Altman expresó que dentro de OpenAI existen posturas divididas respecto al enfoque de código abierto.
“Sí, estamos discutiendo (liberar algunos pesos del modelo y publicar cierta investigación)”, escribió. “Personalmente, creo que hemos estado en el lado equivocado de la historia en este aspecto y necesitamos una estrategia diferente de código abierto. No todos en OpenAI comparten esta visión, y tampoco es nuestra prioridad número uno en este momento”.
A pesar de ello, Altman dejó claro que la decisión de avanzar con un modelo de pesos abiertos refleja una necesidad de reconectar con la comunidad y adaptarse al nuevo entorno competitivo.
Como parte de su enfoque colaborativo, OpenAI ha publicado un formulario en su sitio web para recopilar opiniones de desarrolladores y planea organizar eventos presenciales en las próximas semanas. Las primeras sesiones serán en San Francisco, seguidas por encuentros en Europa y la región Asia-Pacífico.
“Estamos entusiasmados por colaborar con desarrolladores, investigadores y la comunidad en general para recopilar aportes y hacer este modelo lo más útil posible”, escribió OpenAI en su comunicado.
Steven Heidel, integrante del equipo de API de OpenAI, reveló además que este nuevo modelo podrá ejecutarse en hardware local. Esta característica ofrecerá a los usuarios un mayor grado de autonomía, en contraste con la dependencia actual de servicios en la nube o APIs propietarias.
Buscando mayor competitividad
Pese al entusiasmo generado, OpenAI no ha dado detalles clave sobre el modelo. Se desconoce cuántos parámetros tendrá, el tamaño de la ventana de contexto, los métodos de entrenamiento utilizados o la licencia exacta con la que será lanzado.
Ese último punto es particularmente relevante: dependiendo de las condiciones, podrían existir restricciones importantes, como la prohibición del análisis inverso (reverse engineering) o del ajuste fino en ciertos países.
Altman indicó que el modelo contará con capacidades de razonamiento comparables a o3-mini, lo que lo convertiría en el modelo con razonamiento más potente dentro del universo de opciones de pesos abiertos. Esto implicaría una ventaja competitiva incluso frente a DeepSeek R1, que recientemente atrajo atención por su desempeño.
Con esta movida, OpenAI parece estar buscando un nuevo equilibrio entre apertura y control, intentando retomar el liderazgo técnico sin aislarse de una comunidad que valora cada vez más la transparencia, la colaboración y la soberanía tecnológica.
Artículo escrito por un redactor de contenido de IA. Editado por Angel Di Matteo / DiarioBitcoin
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Artículos Relacionados

ChatGPT imagina su cuerpo real: estética, ética y colaboración con humanos

OpenAI logra mayor recaudación privada en tecnología con USD $40.000 millones

Las memecoins de Studio Ghibli flotan a la superficie replicando la última moda de Internet
