IBM ha demostrado que es posible fabricar chips analógicos de inteligencia artificial capaces de realizar tareas de inteligencia artificial en lenguaje natural con una eficiencia energética 14 veces superior.
Un nuevo avance tecnológico podría haber resuelto los problemas energéticos de la inteligencia artificial. La IA requiere una cantidad masiva y creciente de energía, y produce cada vez más emisiones de gases de efecto invernadero a medida que el sector sigue expandiéndose.
El futuro de la IA requiere innovaciones en eficiencia energética, desde la forma en que se diseñan los modelos hasta el hardware que los ejecuta. Y en un mundo cada vez más amenazado por el cambio climático, cualquier avance en la eficiencia energética de la IA es esencial para seguir el ritmo de la huella de carbono en rápida expansión de la IA.
En los últimos meses, el tema ha sido objeto de creciente atención y preocupación, pero esas inquietudes podrían ser pronto cosa del pasado gracias a un nuevo tipo de chip informático analógico desarrollado por la investigación de IBM.
El nuevo chip de IBM es capaz de ejecutar un modelo de reconocimiento de voz con inteligencia artificial 14 veces más eficazmente que un chip informático estándar.
Se trata de un modelo de computación en memoria (CiM), lo que significa que es capaz de realizar cálculos directamente dentro de su propia memoria en lugar de enviar la información de un lado a otro, millones de veces para recuperar o almacenar datos en chips de memoria externos, aliviando así un importante cuello de botella que actualmente aqueja a las operaciones de IA.
“El dispositivo de IBM contiene 35 millones de las llamadas células de memoria de cambio de fase -una forma de CiM- que pueden ajustarse a uno de dos estados, como los transistores de los chips informáticos, pero también a distintos grados entre ellos”, informaba esta semana New Scientist.
Se trata de un gran avance para la informática, ya que “estos estados variados pueden utilizarse para representar los pesos sinápticos entre neuronas artificiales en una red neuronal, un tipo de IA que modela la forma en que los enlaces entre neuronas en los cerebros humanos varían en fuerza al aprender nueva información o habilidades, algo que tradicionalmente se almacena como un valor digital en la memoria del ordenador”.
La solución de IBM podría resolver la escasez mundial de chips
Gracias a esta innovación, el chip analógico de IBM es capaz de almacenar y procesar pesos con sólo una fracción del esfuerzo informático que suele requerir.
La eficiencia de esta nueva tecnología no sólo podría resolver el problema del consumo energético de la IA, sino también el del uso de chips. El entrenamiento de programas de IA puede requerir una enorme cantidad de chips, y a veces se utilizan miles en un solo proyecto.
Esto también se ha convertido en un problema debido a la escasez mundial de chips y al auge de nuevas empresas de IA. En particular, las empresas de IA están teniendo dificultades sin precedentes para conseguir un tipo de chip conocido como unidad de procesamiento gráfico (GPU), que hasta ahora era el más eficiente para las necesidades de procesamiento de la IA.
Según un reciente artículo del New York Times, la escasez ha hecho que las nuevas empresas y las compañías más pequeñas “se peleen” y tomen “medidas desesperadas” para conseguir los chips esenciales.
Este tipo de innovación que ahorra energía para la IA no puede llegar lo bastante rápido. Las necesidades energéticas actuales del aprendizaje automático son enormes y crecen a un ritmo vertiginoso.
El consumo de energía del sector se ha multiplicado por 100 entre 2012 y 2021, y ha aumentado drásticamente desde que ChatGPT llegó al mercado e impulsó la fiebre del oro de la IA. Y la mayor parte de esa energía procede de combustibles fósiles.
La huella de carbono global de la Inteligencia Artificial es casi tan grande como la de Bitcoin, lo que significa que equivale a la huella de carbono de algunos países desarrollados.
“En la actualidad, toda la industria informática es responsable de alrededor del 2% de las emisiones mundiales de CO2”, informaba recientemente Science Alert. Pero la IA va camino de hacer saltar esas cifras por los aires.
La consultora Gartner prevé que, en un escenario sin cambios, el sector de la IA consumirá por sí solo el 3,5% de la electricidad mundial en 2030.
Se calcula que el proceso de entrenamiento de GPT-3, que más tarde se convirtió en ChatGPT, requirió unos 1.287 megavatios hora de electricidad y 10.000 chips de computador.
Para ponerlo en perspectiva, esa cantidad de energía podría abastecer a unos 121 hogares de Estados Unidos durante todo un año, y producir unas 550 toneladas de dióxido de carbono en el proceso.
En la actualidad, los expertos calculan que Open.AI, los creadores de ChatGPT, probablemente gastan unos 700.000 dólares al día sólo en costes informáticos para proporcionar los servicios del chatbot a 100 millones de usuarios en todo el mundo.