TLDR
- Operai lanza modelos de peso abierto «GPT-OSS», lo que permite a los desarrolladores ejecutarlos en sistemas locales.
Los modelos superan a los modelos patentados de OpenAI en ciertas tareas y están disponibles para uso gratuito.
El lanzamiento de peso abierto promueve la innovación de IA al tiempo que minimiza las filtraciones de IP para los modelos principales de OpenAI.
Los nuevos modelos de OpenAI se unen a Meta y Deepseek para ofrecer herramientas de IA de código abierto a los desarrolladores.
El 5 de agosto, Openai dio a conocer sus primeros modelos de peso abierto desde el lanzamiento de GPT-2 en 2019. Los nuevos modelos «GPT-OSS», disponibles en dos tamaños (20B y 20B) están diseñados para desarrolladores de IA que buscan construir y ejecutar IA localmente. Estos modelos están creados para tareas de razonamiento general y tienen la ventaja de ejecutarse en hardware de grado de consumo. El modelo más pequeño incluso puede ejecutarse en dispositivos móviles como teléfonos inteligentes. Este lanzamiento hace de OpenAI parte de un movimiento creciente en el desarrollo de la IA, uniéndose a compañías como Meta y Deepseek para ofrecer modelos de código abierto.
Lo que hace que Operai GPT-OSS sea único
Los modelos GPT-OSS difieren de los modelos patentados lanzados por OpenAI en el pasado. A diferencia de los modelos como GPT-3 o GPT-4, los pesos para GPT-OSS son de código abierto, lo que significa que los desarrolladores pueden acceder a los parámetros internos que controlan cómo funciona el modelo. Esto marca un cambio en la estrategia de OpenAI, que anteriormente había mantenido el funcionamiento interno de sus modelos más avanzados en privado.
Los modelos de peso abierto permiten a los desarrolladores ajustar y adaptar los modelos a sus propios sistemas y necesidades sin estar vinculados a la infraestructura de OpenAI. Este movimiento está destinado a aumentar la innovación y hacer que la IA avanzada sea más accesible para un público más amplio.
¡GPT-OSS está fuera!
Hicimos un modelo abierto que funciona a nivel de O4-Mini y se ejecuta en una computadora portátil de alta gama (¡WTF!)
(y uno más pequeño que se ejecuta en un teléfono).
Súper orgulloso del equipo; Gran triunfo de la tecnología.
– Sam Altman (@sama) 5 de agosto de 2025
El modelo 120B es lo suficientemente potente como para ejecutarse en hardware de consumo de alta gama, como un solo chip NVIDIA 80GB, mientras que el modelo 20B más pequeño puede ejecutarse en dispositivos tan modestos como las computadoras portátiles. El objetivo de OpenAI con estos modelos es proporcionar herramientas que permitan a más personas desarrollarse además de la IA sin necesidad de recursos o infraestructura costosos.
Operai Strategic Move en medio de una creciente competencia
El lanzamiento de estos modelos se ve como una respuesta a la creciente competencia en el sector de IA de código abierto. Empresas como Deepseek ya han hecho olas con modelos de código abierto que superan a los modelos tradicionales en términos de velocidad, costo y rendimiento. Estos desarrollos ejercen presión sobre los principales actores como OpenAI, que inicialmente habían mantenido sus modelos detrás de las paredes de pago y requirieron acceso basado en suscripción a sus sistemas más avanzados.
Sam Altman, el CEO de la compañía, reconoció que liberar estos modelos es una respuesta proactiva al panorama cambiante. Expresó optimismo de que este lanzamiento ayudará a acelerar la tasa de innovación de IA y proporcionará a más personas la oportunidad de contribuir al desarrollo de la IA.

En una publicación sobre X, Altman declaró: «Creemos que vendrá mucho más bien de lo malo», enfatizando los beneficios potenciales de hacer que los modelos estén disponibles públicamente.
Equilibrar la apertura y la protección de la propiedad intelectual
Si bien OpenAi está abriendo los pesos para estos nuevos modelos, la compañía ha dejado en claro que todavía es cauteloso al compartir su propiedad intelectual más valiosa. Los componentes patentados de los modelos avanzados de OpenAI, como GPT-4 y el próximo GPT-5, permanecen firmemente protegidos.
Por ejemplo, los modelos GPT-ASS utilizan una arquitectura de mezcla de expertos (MOE), que activa solo partes del modelo basadas en tareas específicas. Si bien Openai ha revelado algunos detalles sobre esta arquitectura, la información crítica sobre los mecanismos de enrutamiento y las técnicas de capacitación sigue siendo privada.
Como resultado, este cuidadoso equilibrio de apertura y protección del conocimiento patentado es necesario como necesario para evitar fugas que podrían socavar la ventaja competitiva de la compañía. Como señalaron los expertos, la decisión de OpenAI de utilizar componentes conocidos públicamente para los modelos GPT-OSS asegura que la liberación sea útil para la comunidad de desarrolladores sin poner en peligro el negocio principal.
Si quiere puede hacernos una donación por el trabajo que hacemos, lo apreciaremos mucho.
Direcciones de Billetera:
- BTC: 14xsuQRtT3Abek4zgDWZxJXs9VRdwxyPUS
- USDT: TQmV9FyrcpeaZMro3M1yeEHnNjv7xKZDNe
- BNB: 0x2fdb9034507b6d505d351a6f59d877040d0edb0f
- DOGE: D5SZesmFQGYVkE5trYYLF8hNPBgXgYcmrx
También puede seguirnos en nuestras Redes sociales para mantenerse al tanto de los últimos post de la web:
- Telegram
Disclaimer: En Cryptoshitcompra.com no nos hacemos responsables de ninguna inversión de ningún visitante, nosotros simplemente damos información sobre Tokens, juegos NFT y criptomonedas, no recomendamos inversiones

