INVESTIGACIÓN DEL INSTITUTO SALK

INVESTIGACIÓN DEL INSTITUTO SALK

¿Cuál es la capacidad de la memoria humana?

La capacidad de la memoria del cerebro humano se sitúa en el rango de los petabytes. Es lo que se desprende de una nueva investigación del Instituto Salk, que traducido quiere decir que en nuestra sesera cabe tanta información como en toda la World Wide Web.

Nuestros recuerdos y pensamientos son el resultado de una serie de pautas de actividad química y eléctrica en las células cerebrales. Una parte crucial de esta actividad tiene lugar cuando las ramificaciones de las neuronas, similares a un cableado, interactúan con otras en los puntos de contacto o sinapsis.

Así, el 'cable de salida' (axón) de una neurona conecta con el 'cable de entrada' (dendrita) de otra. Y las señales viajan a través de la sinapsis en forma de moléculas químicas llamadas neurotransmisores. A pesar de que cada neurona tiene miles de estas sinapsis que la conectan a otras miles de neuronas, Terry Sejnowski y su equipo han reconstruido en un ordenador toda esta maraña con sumo detalle, en tres dimensiones, tomando como modelo un trozo de tejido de hipocampo, una estructura cerebral con forma de caballito de mar que juega un papel clave en la consolidación de lo aprendido y en el almacenamiento de información a largo plazo.

“Tenía la esperanza de aprender algunos principios básicos sobre cómo se organiza el cerebro a partir de este modelo, pero estoy realmente impresionado de la precisión que hemos conseguido”, admite Kristen Harris, neurocientífico de la Universidad de Texas y coautor del trabajo que publica la revista científica 'eLife'.

Estudiando los tamaños de las conexiones entre neuronas (sinapsis) los científicos identificaron 26 posibles tamaños de las conexiones entre neuronas. Y comprobaron que en un plazo máximo de 20 minutos todas las sinapsis encogen o crecen, ajustando su tamaño continuamente en función de las señales que reciben. Esto permite que el cerebro almacene ingentes cantidades de datos.

Dicho de otro modo, oculto bajo un aparente caos y barullo de conexiones neuronales, los investigadores han encontrado un mecanismo muy preciso en la transmisión de información que se relaciona con el tamaño y la forma de las neuronas. “Acabamos de abrir un nuevo capítulo en la búsqueda de mecanismos relacionados con la memoria y el aprendizaje”, reflexiona Harris.

“Nuestro estudio supone una auténtica bomba en el ámbito de la neurociencia”, añade Sejnowski. “Hemos descubierto la clave para descifrar los principios del diseño que hacen que las neuronas del cerebro consuman tan poca energía a la vez que exhiben una impresionante capacidad de computación”, matiza el investigador, que espera que se pueda emular la enorme eficiencia energética de nuestra sesera en una futura generación de ordenadores.

Después de todo, resulta envidiable que el cerebro desarrolle todo su trabajo consumiendo solo 20 vatios de energía continua, el equivalente a una bombilla de luz tenue.

Elena Sanz | @ElenaSanz_ Vídeo: EÑE | Madrid | 23/02/2016

Los mas vistos

Utilizamos cookies propias y de terceros para mejorar, recoger datos estadísticos y mostrarle publicidad relevante. Si continúa navegando, está aceptando su uso. Puede obtener más información o cambiar la configuración en política de cookies.