La apertura estratégica de OpenAI: un nuevo paradigma en el desarrollo de modelos de razonamiento automático
Ilustración generada con Inteligencia Artificial (ChatGPT)
En 2025, OpenAI ha implementado un cambio de rumbo sin precedentes en su política tecnológica al liberar gpt-oss-120b y gpt-oss-20b, sus primeros modelos de inteligencia artificial de código abierto desde 2019. Esta decisión no solo responde a presiones competitivas derivadas de actores como DeepSeek, Meta o Qwen, sino que también refleja un giro estructural hacia la democratización del acceso a sistemas de razonamiento automático de alto rendimiento. La arquitectura Mixture of Experts (MoE), la licencia Apache 2.0 y su disponibilidad en plataformas como Hugging Face consolidan esta transición como un punto de inflexión para el ecosistema global de IA.
Una transformación histórica en el ecosistema de la IA
La evolución de la inteligencia artificial contemporánea se ha caracterizado por una tensión permanente entre dos modelos de desarrollo: el cerrado y el abierto. Durante más de cinco años, OpenAI abanderó la defensa de arquitecturas privativas, justificando esta decisión en términos de seguridad, control ético y mitigación de riesgos. Sin embargo, la aceleración competitiva por parte de entidades como DeepSeek, Meta (LLaMA), Alibaba (Qwen) o Moonshot AI (Kimi) ha redefinido las condiciones estructurales del sector, obligando a replantear las estrategias tradicionales de retención tecnológica.
En este contexto, el lanzamiento de gpt-oss-120b y gpt-oss-20b representa no solo una rectificación estratégica, sino también una reconfiguración del modelo de gobernanza de la IA, donde la transparencia y la eficiencia operativa adquieren un rol central.
De la contención a la apertura: evolución del marco doctrinal de OpenAI
Desde la publicación de GPT-2 en 2019, OpenAI optó por no divulgar los pesos de sus modelos más avanzados. Este enfoque fue sustentado por una narrativa centrada en la seguridad de la IA general, la necesidad de evitar usos indebidos y la prevención de escenarios catastróficos derivados de sistemas autónomos no alineados.
No obstante, el desarrollo de modelos como DeepSeek R1, con capacidades de razonamiento lógico comparables o superiores, y construidos con presupuestos sustancialmente inferiores, erosionó la narrativa dominante. En 2024, Sam Altman reconoció públicamente que OpenAI estaba “en el lado equivocado de la historia” respecto al código abierto. A partir de ahí, comenzó a gestarse la estrategia que culminaría en la publicación de los modelos gpt-oss en 2025.
Características técnicas: eficiencia computacional y arquitectura MoE
Ambos modelos liberados —gpt-oss-120b y gpt-oss-20b— están basados en una arquitectura de Mixture of Experts (MoE), una técnica que permite aumentar la escala sin incurrir en costos computacionales exponenciales. La arquitectura MoE consiste en dividir los parámetros del modelo en múltiples expertos especializados, activando solo una fracción de ellos durante cada inferencia.
gpt-oss-120b: cuenta con 117 mil millones de parámetros totales, pero solo activa el 4,4% por consulta. Se ejecuta con una sola GPU de 80 GB.
gpt-oss-20b: operable en dispositivos con 16 GB de RAM, activa el 17,2% de sus parámetros, siendo más accesible para laboratorios pequeños o investigadores individuales.
Esta estructura ofrece una eficiencia energética y económica inédita, permitiendo ejecutar modelos de gran capacidad en entornos no especializados sin sacrificar la calidad del razonamiento.
Evaluaciones de desempeño: benchmarks, razonamiento y programación
Los resultados obtenidos por gpt-oss-120b en benchmarks estándar ofrecen una visión comparativa útil:
En el Índice de Inteligencia (AI Index), obtuvo una puntuación de 58, superando al modelo o3-mini y acercándose a modelos propietarios como o3 y o4-mini.
En Codeforces, plataforma de programación competitiva, logró 2622 puntos, superando incluso a DeepSeek R1, a pesar de contar con menos parámetros activos.
Estas métricas posicionan a gpt-oss como una alternativa viable y eficiente en tareas que requieren razonamiento estructurado, resolución de problemas y codificación avanzada.
Sin embargo, también presentan debilidades significativas:
Ausencia de capacidades multimodales (solo texto).
Tasas de alucinación elevadas: 49% en el modelo de 120B y 53% en el de 20B, frente al 16% de modelos propietarios más controlados como o1.
Falta de transparencia en los datos de entrenamiento, lo que limita su auditoría ética y científica.
Factores geopolíticos y presión institucional
La decisión de liberar estos modelos no puede entenderse solo en términos tecnológicos. Existe una dimensión geopolítica clara. La administración Trump —en su nuevo mandato— ha promovido una política de “liberación tecnológica” como estrategia de poder blando frente al creciente liderazgo de China en inteligencia artificial abierta.
Frente al ecosistema chino altamente dinámico (DeepSeek, SenseTime, Baidu, etc.), el gobierno estadounidense ha solicitado a compañías como OpenAI, Anthropic y Cohere que aumenten la accesibilidad de sus innovaciones bajo licencias permisivas, con el objetivo de reafirmar la supremacía cultural y tecnológica estadounidense en un entorno multipolar.
Implementación práctica y gobernanza responsable
Conscientes de los riesgos derivados de los modelos abiertos, OpenAI ha establecido mecanismos de mitigación activa, como el Red Teaming Challenge, dotado con 500.000 dólares en premios para detectar vulnerabilidades de seguridad y posibles usos indebidos. Además, ha establecido alianzas con organizaciones estratégicas como:
Orange (telecomunicaciones e infraestructura europea)
Snowflake (almacenamiento en la nube y datos empresariales)
AI Sweden (ecosistema europeo de IA ética)
Estas alianzas buscan explorar el impacto real de los modelos gpt-oss en entornos diversos: desde sanidad pública hasta educación automatizada, pasando por ciberdefensa y traducción masiva.
Licenciamiento, accesibilidad y ecosistema de adopción
Ambos modelos están publicados bajo la licencia Apache 2.0, una de las más permisivas del software libre, lo que posibilita:
Uso comercial sin restricciones.
Modificación y adaptación.
Redistribución sin necesidad de compartir los cambios.
Están disponibles en Hugging Face y cuentan con integración nativa en plataformas como Ollama, LM Studio, vLLM, y entornos cloud de los principales proveedores (AWS, Azure, Google Cloud).
Esto consolida un ecosistema de adopción descentralizado, que permite a universidades, startups y gobiernos incorporar tecnologías de frontera sin necesidad de dependencia de infraestructura propietaria.
Hacia una IA más abierta, eficiente y colaborativa
El giro estratégico de OpenAI en 2025 representa mucho más que una respuesta táctica a la competencia: constituye un reajuste estructural del equilibrio entre control y apertura, innovación y acceso. Frente a un mundo que exige eficiencia, ética, sostenibilidad y cooperación, los modelos gpt-oss marcan el inicio de un nuevo capítulo en la historia de la inteligencia artificial.
El futuro del conocimiento computacional ya no será exclusivo de laboratorios corporativos herméticos. Con arquitecturas eficientes, licencias abiertas y estrategias de gobernanza compartida, se inaugura una nueva etapa de IA distribuida, auditable y socialmente útil.
Referencia ⬇️
OpenAI. (2025). Introducing GPT-OSS. OpenAI Official Website.