Este impresionante modelo de código abierto puede crear una novela completa de un tirón. La innovación viene desde China
Los chatbots de inteligencia artificial (IA) han mejorado notablemente el último año. ChatGPT, Claude o Gemini ahora pueden mantener el contexto en conversaciones más largas y complejas. También tienen la capacidad de procesar entradas de texto cada vez más grandes. Sin embargo, cuando se trata de ofrecer respuestas, estas aplicaciones tienen una importante limitación: suelen tener dificultadas con salidas que exceden las 1.000 palabras.
Esta realidad impide, por ejemplo, que los mencionados chatbots puedan crear una historia plausible de miles de palabras en una única respuesta. Muchos usuarios llevan meses debatiendo sobre este asunto y preguntándose a qué se debe esta limitación. Unos investigadores de la Universidad de Universidad de Tsinghua, en Pekín, creen haber encontrado la respuesta, y han publicado sus hallazgos para que cualquiera pueda analizarlos.
Dile ‘hola’ a las respuestas plausibles de más de 10.000 palabras
Un equipo de investigación dirigido por Yushi Bai ha presentado dos modelos de lenguaje grande (LLM) basados en modelos existentes que son capaces generar salidas “coherentes” de más de 10.000 palabras. Para hacernos una idea, la novela ‘La metamorfosis’ de Franz Kafka tiene unas 11.000 palabras. Por lo que LongWriter sería capaz de elaborar un libro de mediana longitud y presentarlo en una sola respuesta. Ciertamente, se trata de una proeza.
Los expertos dicen que la limitación de salida de los LLM está directamente relacionada a la longitud de los textos utilizados durante el ajuste fino supervisado (SFT). Bajo esta premisa desarrollaron un sistema llamado AgentWrite para descomponer tareas de generación y permitir a LLM generar salidas coherentes extensas. “Nuestro trabajo demuestra que el LLM de contexto largo existente ya posee el potencial de una ventana de salida más grande”.
El equipo tomó como punto de partida un modelo de código abierto desarrollado por su propia universidad llamado GLM-4 9B entrenado con 10 billones de tokens en 26 idiomas para crear LongWriter-glm4-9b . También utilizó la versión 8B de los modelos de código abierto Llama 3.1 para crear LongWriter-llama3.1-8b. Ambas propuestas, aseguran en su página en GitHub, son capaces de ofrecer respuestas “coherentes” que superan las 10.000 palabras.
Como podemos ver en el vídeo que acompaña este artículo, los investigadores le pidieron a un chatbot basado en GLM-4 9B que creara una historia de 5.000 palabras. ¿El resultado? Un máximo de 1.896 palabras. LongWriter-glm4-9b, en cambio, responde a la misma petición con un total de 7.872. Un punto a tener en cuenta es que el modelo mejorado parece tener una tendencia a crear respuestas extensas, aunque se le indique un límite.
En Xataka Prompt Poet es la última herramienta que ha comprado Google. La ingeniería de 'prompts' sube enteros
La buena noticia es que cualquier persona puede analizar e implementar estos avances. Estamos frente a una de las ventajas de la filosofía abierta que muchos impulsan en el desarrollo de la IA. Una universidad en China puede hacer una aportación que es bien recibida en un proyecto que se desarrolla en otra parte del planeta. Los modelos cerrados, por su parte, dejan todos sus avances bajo la órbita de las compañías que los desarrollan.
Imágenes | Universidad de Tsinghua |
–
La noticia Este impresionante modelo de código abierto puede crear una novela completa de un tirón. La innovación viene desde China fue publicada originalmente en Xataka por Javier Marquez .