Neuronas artificiales que imitan el funcionamiento del cerebro humano
Investigadores de la USC desarrollaron neuronas artificiales que replican procesos cerebrales reales mediante memristores difusivos. Esta tecnología podría revolucionar la inteligencia artificial y hacerla más eficiente.
05/11/2025 | 15:26Redacción Cadena 3
Investigadores de la Universidad del Sur de California (USC) lograron crear neuronas artificiales que replican el comportamiento electroquímico de las células cerebrales reales. Este avance, publicado en la revista Nature Electronics, representa un hito significativo en el campo de la computación neuromórfica, que busca diseñar hardware inspirado en el cerebro humano. La innovación podría reducir drásticamente el tamaño de los chips y el consumo energético, acercando la inteligencia artificial (IA) a una forma más natural de inteligencia.
A diferencia de los procesadores digitales o de los chips neuromórficos anteriores que solo simulan la actividad cerebral a través de modelos matemáticos, estas nuevas neuronas reproducen físicamente cómo operan las neuronas naturales. Así como la actividad cerebral se activa mediante señales químicas, estas versiones artificiales utilizan interacciones químicas reales para iniciar procesos computacionales. Esto implica que no son meras representaciones simbólicas, sino recreaciones tangibles de funciones biológicas.
Una nueva clase de hardware similar al cerebro
La investigación, liderada por el profesor Joshua Yang del Departamento de Ingeniería Informática y Eléctrica de la USC, se basa en su trabajo pionero sobre sinapsis artificiales realizado hace más de una década. El enfoque del equipo se centra en un dispositivo llamado "memristor difusivo". Sus hallazgos sugieren que estos componentes podrían dar lugar a una nueva generación de chips que complementen y mejoren la electrónica basada en silicio. Mientras que los sistemas de silicio dependen de electrones para realizar cálculos, los memristores difusivos utilizan el movimiento de átomos, creando un proceso que se asemeja más a cómo las neuronas biológicas transmiten información. El resultado podría ser chips más pequeños y eficientes que procesen información de manera similar al cerebro, allanando el camino hacia la inteligencia artificial general (AGI).
En el cerebro, tanto las señales eléctricas como las químicas impulsan la comunicación entre las células nerviosas. Cuando un impulso eléctrico alcanza el final de una neurona en una unión llamada sinapsis, se convierte en una señal química para transmitir información a la siguiente neurona. Una vez recibida, esa señal se convierte nuevamente en un impulso eléctrico que continúa a través de la neurona. Yang y sus colegas replicaron este complejo proceso en sus dispositivos con notable precisión. Una ventaja importante de su diseño es que cada neurona artificial se ajusta al tamaño de un solo transistor, mientras que los diseños anteriores requerían decenas o incluso cientos.
En las neuronas biológicas, partículas cargadas conocidas como iones ayudan a crear los impulsos eléctricos que permiten la actividad en el sistema nervioso. El cerebro humano depende de iones como el potasio, sodio y calcio para lograr esto.
Uso de iones de plata para recrear dinámicas cerebrales
En el nuevo estudio, Yang, quien también dirige el Centro de Excelencia en Computación Neuromórfica de la USC, utilizó iones de plata incrustados en materiales óxidos para generar pulsos eléctricos que imitan funciones cerebrales naturales, incluyendo procesos fundamentales como el aprendizaje, el movimiento y la planificación.
"Aunque no son exactamente los mismos iones que en nuestras sinapsis y neuronas artificiales, la física que rige el movimiento de los iones y las dinámicas son muy similares", afirmó Yang.
Yang explicó que "la plata es fácil de difundir y nos proporciona la dinámica que necesitamos para emular el biosistema, de modo que podamos lograr la función de las neuronas, con una estructura muy simple". El nuevo dispositivo que puede habilitar un chip similar al cerebro se llama "memristor difusivo" debido al movimiento iónico y la difusión dinámica que ocurre con el uso de plata.
El equipo eligió utilizar dinámicas iónicas para construir sistemas artificiales inteligentes "porque eso es lo que ocurre en el cerebro humano, por una buena razón, y dado que el cerebro humano es el 'ganador de la evolución: el motor inteligente más eficiente".
"Es más eficiente", agregó Yang.
Por qué la eficiencia es importante en el hardware de IA
Yang enfatizó que el problema con la computación moderna no es la falta de potencia, sino la ineficiencia. "No es que nuestros chips o computadoras no sean lo suficientemente potentes para lo que están haciendo. Es que no son lo suficientemente eficientes. Usan demasiada energía", explicó. Esto es especialmente relevante dado el alto consumo energético que requieren los sistemas de inteligencia artificial a gran escala para procesar enormes conjuntos de datos.
Yang continuó explicando que, a diferencia del cerebro, "nuestros sistemas de computación existentes nunca fueron diseñados para procesar grandes cantidades de datos o aprender de solo unos pocos ejemplos por su cuenta. Una forma de aumentar tanto la eficiencia energética como la de aprendizaje es construir sistemas artificiales que operen de acuerdo con principios observados en el cerebro".
Si se busca pura velocidad, los electrones que alimentan la computación moderna serían los mejores para operaciones rápidas. Pero, como explicó, "los iones son un mejor medio que los electrones para encarnar los principios del cerebro. Debido a que los electrones son ligeros y volátiles, computar con ellos permite un aprendizaje basado en software en lugar de un aprendizaje basado en hardware, lo cual es fundamentalmente diferente de cómo opera el cerebro".
En contraste, dijo, "el cerebro aprende moviendo iones a través de membranas, logrando un aprendizaje energético y adaptativo directamente en el hardware, o más precisamente, en lo que la gente podría llamar 'wetware'".
Por ejemplo, un niño pequeño puede aprender a reconocer dígitos manuscritos después de ver solo unos pocos ejemplos de cada uno, mientras que una computadora típicamente necesita miles para lograr la misma tarea. Sin embargo, el cerebro humano logra este notable aprendizaje consumiendo solo alrededor de 20 vatios de potencia, en comparación con los megavatios requeridos por las supercomputadoras actuales.
Impacto potencial y próximos pasos
Yang y su equipo consideran esta tecnología como un paso importante hacia la replicación de la inteligencia natural. Sin embargo, reconoció que la plata utilizada en estos experimentos aún no es compatible con los procesos de fabricación de semiconductores estándar. Los trabajos futuros explorarán otros materiales iónicos que puedan lograr efectos similares.
Los memristores difusivos son eficientes tanto en energía como en tamaño. Un smartphone típico puede contener alrededor de diez chips, cada uno con miles de millones de transistores que se activan y desactivan para realizar cálculos.
"En lugar de eso [con esta innovación], solo usamos el tamaño de un transistor para cada neurona. Estamos diseñando los bloques de construcción que eventualmente nos llevarán a reducir el tamaño del chip en órdenes de magnitud, reducir el consumo de energía en órdenes de magnitud, para que pueda ser sostenible realizar IA en el futuro, con un nivel similar de inteligencia sin consumir energía que no podemos sostener", afirmó Yang.
Ahora que se han demostrado bloques de construcción compactos y capaces, sinapsis y neuronas artificiales, el siguiente paso es integrar un gran número de ellos y probar cuán cerca podemos replicar la eficiencia y las capacidades del cerebro. "Aún más emocionante", dijo Yang, "es la perspectiva de que tales sistemas fieles al cerebro podrían ayudarnos a descubrir nuevos conocimientos sobre cómo funciona el propio cerebro".
Lectura rápida
¿Qué se desarrolló?
Neuronas artificiales que replican procesos del cerebro humano.
¿Quién lideró la investigación?
El profesor Joshua Yang de la USC.
¿Cuándo se publicó el estudio?
El 5 de noviembre de 2025.
¿Dónde se realizó la investigación?
En la Universidad del Sur de California.
¿Por qué es importante esta tecnología?
Podría revolucionar la inteligencia artificial y hacerla más eficiente.





