GPT-4.5 es la demostracion de que usar más GPUs y más datos ya no sirve de casi nada
En los últimos dos años hemos visto cómo las empresas que desarrollan modelos de IA no han parado de mostrar una voracidad casi sin límites. Apostaban por escalar y utilizar más datos y más GPUs para mejorar esos modelos. Sin embargo, ha habido una sorpresa: resulta que esa estrategia ya no funciona.
GPT-4.5 será el último de su estirpe. Siempre hemos asociado a ChatGPT con los modelos tradicionales "que no razonan", aunque en los últimos tiempos también da acceso a los modos de razonamiento. Aun así, su base actual es GPT-4o, y ese modelo tendrá un último sucesor. Será GPT-4.5, que no se renovará. Eso es precisamente lo interesante.
En Xataka El nuevo gran modelo de OpenAI apunta a algo preocupante: una desaceleración de la IA
Escalar ya no sirve de mucho. Como señalan expertos como Gary Marcus, GPT-4.5 parece ser la constatación de que gastar más y más dinero en escalar, utilizando cada vez más GPUs y datos para entrenar modelos ya no tiene apenas sentido. La esperanza de OpenAI era Orion, que apuntaba a ser GPT-5, pero no lo es: es (probablemente) GPT-4.5.
Choque contra un muro. El salto en rendimiento y capacidad jamás fue el que se esperaba, lo que dio lugar a hablar de la desaceleración de la IA. Al menos, de la IA generativa que no razona. Esa desde luego parece haberse chocado contra un muro, y ya no puede mejorar más. Estamos, parece, ante un cambio de foco total hacia modelos de razonamiento.
Les está pasando a todas. GPT-4.5 es la aceptación de esa nueva realidad por parte de OpenAI, pero es que hay otras muchas empresas de IA que están en la misma situación. Las nuevas versiones de los modelos "que no razonan" no acaban de llegar. Grok 3 no llega y xAI se está quedando atrás, pero es que tampoco hemos visto sucesor de Claude 3.5 y no sabemos en qué está trabajando Anthropic. Google acaba de presentar Gemini 2.0, pero el salto en capacidades respecto a Gemini 1.5 no es espectacular, al menos si no tenemos en cuenta su versión de razonamiento, ""Flash Thinking.
Os lo dije. Expertos como Yann LeCun, máximo responsable de Meta, ya hace tiempo que avisó de que esa estrategia de "más datos y más GPUs" tenía fecha de caducidad. Ilya Sutskever, cofundaor de OpenAI y ahora con su propia startup de IA, también lo dejó claro hace meses. Para él el entrenamiento masivo de un modelo de IA usando un gran conjunto de datos sin etiquetar para que el modelo detecte patrones y estructuras ya no daba más de sí, e incluso tratar de hacerlo más y más grande tampoco ofrecía demasiadas ventajas.
¿Entonces, para qué gastar tanto dinero? Si los modelos tradicionales ya no pueden avanzar mucho con ese escalado, la pregunta es obvia: ¿por qué las empresas están invirtiendo miles de millones de dólares en centros de datos? La respuesta es diversa. En primer lugar, el escalado sigue siendo útil para perfeccionar los modelos y hacer que se comporten mejor y comentan menos errores.
Los centros de datos tienen sentido. Pero es que además está el apartado de la inferencia: esa gigantesca infraestructura en la que están invirtiendo las empresas no es tanto para entrenar modelos con el enfoque tradicional, sino para que cientos o incluso miles de millones de personas acaben usando la IA en su día a día de forma continua. Esa es la apuesta actual.
Que vivan los modelos que razonan. La desaceleración de la IA de la que se lleva tiempo hablando no es "de toda la IA", sino como decimos de los modelos de IA generativa tradicionales que no razonaban. Los nuevos modelos como o1, DeepSeek R1 o Gemini 2.0 Flash Thinking son claramente la tendencia: cada vez más precisos y con respuestas que cada vez tienen mayor calidad y realmente ayudan a que confiemos en ellos. A que hagan el trabajo por nosotros casi "a ciegas".
Tenemos avances en IA para rato. La IA tiene aún mucho camino por delante. Que el enfoque del escalado (más GPUs, más datos, esto es la guerra) no tenga mucho sentido no importa demasiado, porque hay otros caminos. Muchos. Y el de los modelos de razonamiento es solo uno de ellos.
Imagen | Amazon
En Xataka | OpenAI quiere ser la nueva Google con GPT-5: tú preguntarás y la IA ya decidirá cómo te contesta
–
La noticia && GPT-4.5 es la demostracion de que usar más GPUs y más datos ya no sirve de casi nada fue publicada originalmente en && Xataka por && Javier Pastor .