Investigación en Texas
29/10/2025 | 17:00
Redacción Cadena 3
¿Es posible que las computadoras aprendan de manera más similar a los humanos, sin depender de sistemas de inteligencia artificial (IA) que requieren entrenamientos extremadamente costosos? La respuesta podría estar en la computación neuromórfica, una tecnología emergente que utiliza hardware inspirado en el cerebro para realizar tareas de IA de manera más eficiente y con un menor consumo energético que los sistemas convencionales.
El Dr. Joseph S. Friedman, profesor asociado de ingeniería eléctrica y de computación en la Universidad de Texas en Dallas, y su equipo de investigadores del Laboratorio NeuroSpinCompute, dieron un paso importante en la construcción de una computadora neuromórfica al crear un prototipo a pequeña escala que aprende patrones y realiza predicciones utilizando menos cálculos de entrenamiento que los sistemas de IA convencionales. Su próximo desafío es escalar este concepto a tamaños más grandes.
"Nuestro trabajo muestra un nuevo camino potencial para construir computadoras inspiradas en el cerebro que pueden aprender por sí solas", afirmó Friedman. "Dado que las computadoras neuromórficas no necesitan grandes cantidades de cálculos de entrenamiento, podrían alimentar dispositivos inteligentes sin altos costos energéticos".
El equipo, que incluyó a investigadores de Everspin Technologies Inc. y Texas Instruments, describió el prototipo en un estudio publicado en Communications Engineering.
Las computadoras convencionales y las unidades de procesamiento gráfico mantienen el almacenamiento de memoria separado del procesamiento de información. Como resultado, no pueden realizar inferencias de IA con la misma eficiencia que el cerebro humano. Además, requieren grandes cantidades de datos etiquetados y un número enorme de cálculos de entrenamiento complejos, cuyos costos pueden alcanzar cientos de millones de dólares.
Las computadoras neuromórficas integran el almacenamiento de memoria con el procesamiento, lo que les permite realizar operaciones de IA con mayor eficiencia y menores costos. El hardware neuromórfico se inspira en el cerebro, donde redes de neuronas y sinapsis procesan y almacenan información, respectivamente. Las sinapsis forman las conexiones entre neuronas, que se fortalecen o debilitan según los patrones de actividad, permitiendo que el cerebro se adapte continuamente a medida que aprende.
El enfoque de Friedman se basa en un principio propuesto por el neuropsicólogo Dr. Donald Hebb, conocido como la ley de Hebb: las neuronas que se activan juntas, se conectan juntas.
"El principio que utilizamos para que una computadora aprenda por sí sola es que si una neurona artificial provoca que otra neurona artificial se active, la sinapsis que las conecta se vuelve más conductiva", explicó Friedman.
Una innovación importante en el diseño de Friedman es el uso de uniones magnéticas de túnel (MTJs), dispositivos a nanoescala que consisten en dos capas de material magnético separadas por una capa aislante. Los electrones pueden atravesar este barrier más fácilmente cuando las magnetizaciones de las capas están alineadas en la misma dirección y con más dificultad cuando están alineadas en direcciones opuestas.
En los sistemas neuromórficos, los MTJs pueden conectarse en redes para imitar la forma en que el cerebro procesa y aprende patrones. A medida que las señales pasan a través de los MTJs de manera coordinada, sus conexiones se ajustan para fortalecer ciertos caminos, de manera similar a como las conexiones sinápticas en el cerebro se refuerzan durante el aprendizaje. El conmutador binario de los MTJs los hace confiables para almacenar información, resolviendo un desafío que ha impedido durante mucho tiempo enfoques neuromórficos alternativos.
¿Qué es el prototipo de computadora neuromórfica?
Es un dispositivo que aprende patrones y realiza predicciones utilizando menos cálculos de entrenamiento que los sistemas de IA convencionales.
¿Quién lidera el proyecto?
El Dr. Joseph S. Friedman, profesor asociado en la Universidad de Texas en Dallas.
¿Cuándo se presentó el prototipo?
El prototipo fue descrito en un estudio publicado en Communications Engineering.
¿Dónde se desarrolló el prototipo?
En el Laboratorio NeuroSpinCompute de la Universidad de Texas en Dallas.
¿Por qué es importante esta tecnología?
Porque permite realizar tareas de IA de manera más eficiente y con menor consumo energético, lo que podría beneficiar a dispositivos móviles.
Te puede Interesar
Mercado tecnológico
Microsoft Corp. volvió a superar los $4 billones en valoración, sumándose a Nvidia en un exclusivo club que también incluyó brevemente a Apple. Este aumento refleja el fervor de los inversores por la inteligencia artificial.
Desarrollo tecnológico en Australia
La policía de Australia trabaja en un prototipo de IA que descifrará el slang de Gen Z y mensajes con emojis de depredadores en línea, según un alto funcionario.
Innovación en manejo ergonómico
La Universidad de Texas en Arlington ha creado un exoesqueleto neumático para aliviar la tensión en brazos y codos, ayudando a prevenir lesiones laborales por movimientos repetitivos.