ChatGPT se presentaba en noviembre de 2022. Un año antes, OpenAI había presentado un modelo de IA con pesos abiertos, el GPT-2. Es decir, los parámetros que caracterizan el funcionamiento del modelo, eran accesibles y podían ser modificados. Puede parecer sencillo, conceptualmente, aunque es una tarea compleja en la práctica. De todos modos, desde entonces, OpenAI no había lanzado ningún modelo más con pesos abiertos.

Este pasado martes, OpenAI anunciaba GPT-OSS, un modelo de peso abierto con licencia Apache 2.0 que puede descargarse gratuitamente, con diferentes tamaños, siendo posible instalar el de menos parámetros en un portátil con 16 GB de RAM. A la espera de GPT-5, este anuncio es un buen presagio.
GPT-OSS es un modelo de lenguaje similar a los modelos GPT usados en ChatGPT. Los pesos de los parámetros son abiertos, eso sí. Es decir: podemos cambiar los pesos (el comportamiento) del modelo. Además, podemos usar el modelo sin conexión a Internet y de forma gratuita. OpenAI no ha compartido los datos usados en el entrenamiento ni los algoritmos empleados para calcular los parámetros, por lo que no es, de forma estricta, un modelo Open Source.
Hay una variante con 120.000 millones de parámetros y otra con 20.000 millones. Para ejecutar localmente la primera, se necesita una GPU discreta con al menos 80 GB de memoria VRAM. La versión de 20B puede ejecutarse en ordenadores con 16 GB de memoria. Es compatible con LMstudio, llama.cp o vLLM.
Hay una web disponible para probar estos modelos en https://gpt-oss.com/ tanto en la variante de 120B como en la de 20B. También podemos ajustar el nivel de razonamiento. Es un modelo, además, equiparable a o3-mini en la variante 20B, y a o4-mini en la variante de 120B.