Tecno

Estos investigadores han logrado que la IA consuma un 95% menos de energía. Solo hay que multiplicar mejor

Cada vez que hacemos uso de ChatGPT o Midjourney estamos contribuyendo a un consumo de energía (¡y agua!) excepcional. Ese es precisamente uno de los problemas del auge de la IA, y las empresas ya están pensando incluso en utilizar centrales nucleares para satisfacer esa demanda. Mientras muchos se esfuerzan en pensar en métodos de solucionar esas necesidades energéticas otros van justo a lo contrario: a lograr que la IA consuma mucho menos.

IA a dieta. Como señalan en Decrypt, unos investigadores de la firma BitEnergy AI han desarrollado una nueva técnica para reducir el consumo de energía por parte de estos modelos Según sus estimaciones, su método permite ahorrar hasta un 95% de consumo energético sin comprometer la calidad de estos sistemas.

Multiplicar mejor. La clave de esta "dieta" está en la forma de multiplicar números de coma flotante, una operación intensiva en cálculos de IA. En lugar de multiplicar, los investigadores aplican sumas de enteros, lo que según sus análisis permite reducir de forma drástica las necesidades energéticas de la operación.

Hemos calculado cuánto dinero se están gastando las Big Tech en centros de datos para IA. Los números son mareantes Xataka Hemos calculado cuánto dinero se están gastando las Big Tech en centros de datos para IA. Los números son mareantes

Números con coma. La coma flotante es un concepto matemático que permite a los ordenadores gestionar números enormes y muy pequeños de forma eficiente con una sencilla operación: la colocación de la coma (o, para países con otra notación, el punto) decimal. Cuanto mayor es el número ("anchura") de bits, mayor precisión obtenemos en los cálculos, pero también mayor es el gasto de energía (o las necesidades de memoria del sistema). De ahí que por ejemplo FP32 (usado en algoritmos de aprendizaje profundo) ofrezca mayor precisión que FP8 (usado en el entrenamiento e inferencia, donde no se exige tanta precisión).

L-Mul. El algoritmo desarrollado por estos investigadores cambia multiplicaciones por sumas de enteros. Descompone esas multiplicaciones haciendo uso de sumas, lo que acelera los cálculos y reduce el consumo energético sin que eso impacte en la precisión del resultado.

Necesita hardware especial. Sacar provecho de este método no obstante tiene un inconveniente: es necesario contar ocn un tipo de hardware específico, y los sistemas actuales no están optimizados para lograr dichas reducciones. Aun así los investigadores aseguran que sus algoritmos están siendo implementados con chips hardware, y es de esperar que en un futuro próximo esa opción esté disponible de forma práctica.

Prometedor. Los desarrolladores del método afirman que esta técnica permite que los sistemas de IA "puede reducir potencialmente en un 95% el coste energético de las multiplicaciones tensor en coma flotante por elementos y en un 80% el de los productos punto". Los tensores son matrices multidimensionales de números que representan datos en redes neuronales.

Multiplicar matrices es un reto. Encontrar formas mejores de multiplicar matrices se ha convertido en un singular reto matemático para todo tipo de entidades y empresas. DeepMind ya desveló su propio sistema para mejorar la multiplicación de matrices a finales de 2022, y apenas un año después un equipo de la Universidad Politécnica de Valencia también ofrecieron una alternativa igualmente prometedora.

En Xataka | Los físicos tienen algo increíble: un método muy preciso para simular agujeros negros en su laboratorio


La noticia && Estos investigadores han logrado que la IA consuma un 95% menos de energía. Solo hay que multiplicar mejor fue publicada originalmente en && Xataka por && Javier Pastor .

Publicaciones relacionadas

Botón volver arriba