Una IA inspirada en el cerebro podría reducir el consumo energético

Investigación de la Universidad de Surrey

Una IA inspirada en el cerebro podría reducir el consumo energético

30/10/2025 | 21:00

Investigadores de la Universidad de Surrey desarrollaron un nuevo enfoque para la IA que imita las redes neuronales biológicas, logrando mayor eficiencia y velocidad en los modelos de inteligencia artificial.

Redacción Cadena 3

La inteligencia artificial (IA) podría volverse más eficiente en el uso de energía y más rápida, gracias a un nuevo enfoque desarrollado en la Universidad de Surrey que se inspira directamente en las redes neuronales biológicas del cerebro humano.

En un estudio publicado en Neurocomputing, investigadores del grupo de Computación y Ingeniería Inspirada en la Naturaleza (NICE) de Surrey demostraron que imitar el cableado neuronal escaso y estructurado del cerebro puede mejorar significativamente el rendimiento de las redes neuronales artificiales (ANN), utilizadas en la IA generativa y otros modelos modernos como ChatGPT, sin sacrificar la precisión.

El método, denominado Topographical Sparse Mapping (TSM), replantea cómo se conectan los sistemas de IA en su nivel más fundamental. A diferencia de los modelos de aprendizaje profundo convencionales, que conectan cada neurona en una capa con todas las neuronas en la siguiente, desperdiciando energía, el TSM conecta cada neurona solo con las cercanas o relacionadas, de manera similar a cómo el sistema visual del cerebro organiza la información de manera eficiente. A través de este diseño natural, el modelo elimina la necesidad de una gran cantidad de conexiones y cálculos innecesarios.

Una versión mejorada, llamada Enhanced Topographical Sparse Mapping (ETSM), lleva el concepto un paso más allá al introducir un proceso de "poda" inspirado biológicamente durante el entrenamiento, similar a cómo el cerebro refina gradualmente sus conexiones neuronales a medida que aprende. Juntas, estas aproximaciones permiten que los sistemas de IA logren una precisión igual o incluso mayor mientras utilizan solo una fracción de los parámetros y la energía requeridos por los modelos convencionales.

El Dr. Roman Bauer, profesor titular en la Escuela de Ciencias de la Computación y la Ingeniería Electrónica de Surrey y supervisor del proyecto, comentó: "Entrenar muchos de los modelos de IA grandes y populares de hoy puede consumir más de un millón de kilovatios-hora de electricidad, lo que equivale al uso anual de más de cien hogares en EE. UU., y costar decenas de millones de dólares. Eso simplemente no es sostenible a medida que la IA continúa creciendo. Nuestro trabajo demuestra que los sistemas inteligentes pueden construirse de manera mucho más eficiente, reduciendo la demanda de energía sin sacrificar el rendimiento".

El modelo mejorado de Surrey logró hasta un 99% de escasez, lo que significa que podría eliminar casi todas las conexiones neuronales habituales, pero aún así igualó o superó la precisión de las redes estándar en conjuntos de datos de referencia. Debido a que evita el ajuste fino constante y el recableado utilizados por otros enfoques, se entrena más rápido, utiliza menos memoria y consume menos del uno por ciento de la energía de un sistema de IA convencional.

Mohsen Kamelian Rad, un estudiante de doctorado en la Universidad de Surrey y autor principal del estudio, afirmó: "El cerebro logra una eficiencia notable a través de su estructura, con cada neurona formando conexiones que están organizadas espacialmente. Cuando reflejamos este diseño topográfico, podemos entrenar sistemas de IA que aprenden más rápido, utilizan menos energía y funcionan con la misma precisión. Es una nueva forma de pensar sobre las redes neuronales, construida sobre los mismos principios biológicos que hacen que la inteligencia natural sea tan efectiva".

Si bien el marco actual aplica el mapeo inspirado en el cerebro a la capa de entrada de un modelo de IA, extenderlo a capas más profundas podría hacer que las redes sean aún más delgadas y eficientes. El equipo de investigación también está explorando cómo se podría utilizar el enfoque en otras aplicaciones, como computadoras neuromórficas más realistas, donde las ganancias de eficiencia podrían tener un impacto aún mayor.

Lectura rápida

¿Qué se desarrolló?
Un nuevo enfoque de IA inspirado en el cerebro que mejora la eficiencia energética y el rendimiento.

¿Quién lo desarrolló?
Investigadores de la Universidad de Surrey.

¿Cuándo se publicó el estudio?
El 30 de octubre de 2025.

¿Dónde se publicó?
En la revista Neurocomputing.

¿Cómo funciona el nuevo enfoque?
Imita el cableado neuronal del cerebro, conectando neuronas cercanas en lugar de todas las neuronas en una capa.

¿Por qué es importante?
Reduce el consumo de energía y mejora la velocidad de entrenamiento de los modelos de IA.

Te puede Interesar

Investigación de la Universidad de Chicago

Investigadores de la Universidad de Chicago desarrollaron un modelo de IA que, a partir de solo 58 puntos de datos, exploró un millón de electrolitos potenciales y descubrió cuatro nuevos solventes con alto rendimiento.

Investigación de Carnegie Mellon

Un estudio de la Universidad Carnegie Mellon indica que a mayor inteligencia en los sistemas de IA, menor cooperación muestran. Esto podría afectar interacciones humanas y decisiones sociales.

Investigación en tecnología spintrónica

Investigadores desarrollaron un chip de memoria que combina almacenamiento y procesamiento, mejorando la eficiencia energética y la velocidad en modelos de inteligencia artificial.

Investigación en Texas

Investigadores de la Universidad de Texas en Dallas desarrollaron un prototipo de computadora neuromórfica que aprende patrones con menos cálculos que la IA tradicional, abriendo nuevas posibilidades para dispositivos móviles.

© Copyright 2025 Cadena 3 Argentina