LA CAPACIDAD DE MEMORIA HA DEMOSTRADO SER 10 VECES MAYOR
Investigadores del Instituto Salk de Estudios Biológicos (La Jolla, California), en estudio publicado en la revista científica eLife
en enero 2016, aseguran haber descubierto que la capacidad de memoria
del cerebro humano es un orden de magnitud mayor de lo que se pensaba.
Han determinado, midiendo con precisión el tamaño de las sinapsis
neuronales, que la capacidad de memoria
del cerebro es 10 veces mayor de lo que se creía, y está en niveles de
petabyte, es decir, Internet entera.
Nuestros recuerdos y pensamientos son el resultado de patrones de actividad eléctrica y química en el cerebro. Una parte fundamental de la actividad se produce cuando las neuronas interactúan en ciertos cruces, conocidas como sinapsis. Un cable de salida (un axón) de una neurona se conecta a un cable de entrada (una dendrita) de una segunda neurona.
Las señales viajan a través de la sinapsis en forma de productos químicos llamados neurotransmisores, para contar a la neurona receptora si debe transmitir una señal eléctrica a otras neuronas. Cada neurona puede tener miles de estas sinapsis con miles de otras neuronas.
Nuestros recuerdos y pensamientos son el resultado de patrones de actividad eléctrica y química en el cerebro. Una parte fundamental de la actividad se produce cuando las neuronas interactúan en ciertos cruces, conocidas como sinapsis. Un cable de salida (un axón) de una neurona se conecta a un cable de entrada (una dendrita) de una segunda neurona.
Las señales viajan a través de la sinapsis en forma de productos químicos llamados neurotransmisores, para contar a la neurona receptora si debe transmitir una señal eléctrica a otras neuronas. Cada neurona puede tener miles de estas sinapsis con miles de otras neuronas.
El equipo de Salk, mientras reconstruía en 3D un tejido de hipocampo – el centro de memoria del cerebro – de
rata, notó algo inusual. En algunos casos, un solo axón de una neurona
formaba dos sinapsis para llegar a una sola dendrita de una segunda
neurona, lo que significa que la primera neurona parecía estar enviando
un mensaje duplicado a la neurona receptora.
En un primer momento, los investigadores no pensaron mucho sobre esta duplicidad, que se produce alrededor del 10 por ciento del tiempo en el hipocampo. Pero si podían medir la diferencia entre dos sinapsis muy similares como esas, podrían hacerse una idea mejor del tamaño de las sinapsis, que hasta ahora sólo habían sido clasificadas en como pequeñas, medianas y grandes.
Para ello, los investigadores utilizaron microscopía avanzada y algoritmos computacionales que habían desarrollado para obtener imágenes de cerebros de ratas y reconstruir la conectividad, las formas, los volúmenes y la superficie del tejido cerebral hasta un nivel nano-molecular.
Los científicos esperaban que las sinapsis fueran más o menos similares en tamaño, pero se sorprendieron al descubrir que las sinapsis eran casi idénticas.
Debido a que la capacidad de memoria de las neuronas depende del tamaño de la sinapsis, esta diferencia del ocho por ciento resultó ser un número de clave que el equipo pudo entonces introducir en sus modelos algorítmicos del cerebro, para medir la cantidad de información que potencialmente podría ser almacenada en las conexiones sinápticas.
En un primer momento, los investigadores no pensaron mucho sobre esta duplicidad, que se produce alrededor del 10 por ciento del tiempo en el hipocampo. Pero si podían medir la diferencia entre dos sinapsis muy similares como esas, podrían hacerse una idea mejor del tamaño de las sinapsis, que hasta ahora sólo habían sido clasificadas en como pequeñas, medianas y grandes.
Para ello, los investigadores utilizaron microscopía avanzada y algoritmos computacionales que habían desarrollado para obtener imágenes de cerebros de ratas y reconstruir la conectividad, las formas, los volúmenes y la superficie del tejido cerebral hasta un nivel nano-molecular.
Los científicos esperaban que las sinapsis fueran más o menos similares en tamaño, pero se sorprendieron al descubrir que las sinapsis eran casi idénticas.
Debido a que la capacidad de memoria de las neuronas depende del tamaño de la sinapsis, esta diferencia del ocho por ciento resultó ser un número de clave que el equipo pudo entonces introducir en sus modelos algorítmicos del cerebro, para medir la cantidad de información que potencialmente podría ser almacenada en las conexiones sinápticas.
Se
sabía que el rango de tamaños de las sinapsis era de 60 a 1 y que la
mayoría eran pequeñas. Pero con el conocimiento de que las sinapsis de
todos los tamaños pueden variar en márgenes tan pequeños como un ocho
por ciento, el equipo determinó que podría haber cerca de 26 categorías de tamaños de las sinapsis, en lugar de sólo unas pocas.
En términos informáticos, 26 tamaños de sinapsis corresponden a alrededor de 4,7 "bits" de información. Anteriormente, se pensaba que el cerebro era capaz de tener sólo uno o dos bits para el almacenamiento de memoria a corto y largo plazo en el hipocampo. Las sinapsis ajustan su tamaño de forma constante, según las señales que reciben.
Los resultados también ofrecen una explicación de la eficiencia sorprendente del cerebro. El cerebro adulto al despertar genera sólo 20 vatios de corriente continua, tanto como una bombilla de luz muy tenue.
El descubrimiento podría ayudar a los informáticos a construir computadoras ultra precisas de bajo consumo, en particular los que emplean "aprendizaje profundo" y redes de técnicas neuronales artificiales capaces de aprendizaje y análisis sofisticados, como el habla, el reconocimiento de objetos y la traducción.
En términos informáticos, 26 tamaños de sinapsis corresponden a alrededor de 4,7 "bits" de información. Anteriormente, se pensaba que el cerebro era capaz de tener sólo uno o dos bits para el almacenamiento de memoria a corto y largo plazo en el hipocampo. Las sinapsis ajustan su tamaño de forma constante, según las señales que reciben.
Los resultados también ofrecen una explicación de la eficiencia sorprendente del cerebro. El cerebro adulto al despertar genera sólo 20 vatios de corriente continua, tanto como una bombilla de luz muy tenue.
El descubrimiento podría ayudar a los informáticos a construir computadoras ultra precisas de bajo consumo, en particular los que emplean "aprendizaje profundo" y redes de técnicas neuronales artificiales capaces de aprendizaje y análisis sofisticados, como el habla, el reconocimiento de objetos y la traducción.
Comentarios
Publicar un comentario