Un grupo de investigadores de la Universidad de Tufts desarrolló un modelo de Inteligencia Artificial que podría disminuir de forma considerable el consumo de energía, al tiempo que incrementa su eficiencia, en medio del crecimiento sostenido de la demanda energética asociada a estos sistemas.
De acuerdo con datos de la Agencia Internacional de Energía, los centros de datos y plataformas de IA en Estados Unidos alcanzaron un consumo de 415 teravatios-hora durante 2024, lo que representa más del 10% de la producción eléctrica del país en ese período, con proyecciones de aumento hacia los próximos años.
Frente a este panorama, los científicos plantearon un enfoque basado en arquitectura neurosimbólica, que integra redes neuronales, utilizadas para el reconocimiento de patrones, con mecanismos de razonamiento lógico similares a los procesos cognitivos humanos.
Según los resultados del estudio, este modelo podría utilizar hasta 100 veces menos energía que los sistemas actuales, además de mejorar la precisión en diversas tareas y reducir significativamente los tiempos de entrenamiento, que en algunos casos pasarían de horas a minutos.
Las pruebas incluyeron la aplicación del sistema en entornos robóticos, donde mostró un desempeño superior frente a modelos tradicionales, especialmente en actividades que requieren planificación compleja, como la resolución del problema de la Torre de Hanói.
Los investigadores señalaron que esta propuesta permite disminuir el número de intentos necesarios para alcanzar una solución, optimizando así el proceso de aprendizaje y reduciendo el gasto energético.
El desarrollo fue divulgado a través de la plataforma arXiv y es considerado por sus creadores como una alternativa viable para avanzar hacia sistemas de inteligencia artificial más sostenibles, en un contexto marcado por la expansión de los centros de datos a nivel global.
Con información de VTV
Foto Cortesía

