Modelos matemáticos enfocados al análisis de los sistemas neuronales.

Tradicionalmente, las matemáticas y la biología han avanzado por caminos independientes. A pesar de que la aplicación de las matemáticas en la formulación y el desarrollo de modelos de la naturaleza es frecuente en el ámbito de las ciencias físicas, la biología clásica se ha mantenido apartada de estas aproximaciones.

Sin embargo, los problemas de los que se ocupa la biología, de naturaleza extremadamente diversa y compleja, son fruto de las mismas leyes que rigen los fenómenos de los que tratan la física y la química, por tanto deben poder ser abordados también desde una perspectiva matemática.

Es justamente la gran complejidad los problemas biológicos lo que hace más necesaria que en cualquier otro ámbito la incorporación de recursos provenientes de otras ciencias, que permitan entender los fenómenos vivos no sólo como conjuntos de piezas más o menos definidas, sino como verdaderos entramados donde las relaciones entre los diferentes elementos se pueden expresar de manera precisa y cuantitativa. Los modelos matemáticos, si se formulan de manera adecuada, permiten predecir y, sobre todo, comprender los mecanismos subyacentes a los fenómenos naturales. Debido a que muchos los modelos se formulan mediante ecuaciones diferenciales, la teoría de sistemas dinámicos proporciona herramientas muy poderosas en el estudio de estos problemas.

El estudio de las redes neuronales, que es el punto de partida en la comprensión de cómo operan los circuitos nerviosos para dar lugar a las sensaciones, la memoria o incluso la conciencia, es un ejemplo evidente de la necesidad de encontrar caminos de encuentro entre las matemáticas y la biología. A pesar de los esfuerzos que en los últimos tiempos los científicos han hecho para descubrir cómo trabaja el cerebro, todavía estamos muy lejos de entender como los entramados de neuronas, a partir de sus relaciones químicas y espaciales, pueden computar información y emitir respuestas de manera coherente. Parece claro que la investigación en este ámbito requiere partir de un punto de vista amplio, en el que se tengan en cuenta no sólo las características locales e individuales de cada uno de los elementos sino también propiedades en mayor escala. Estas tareas entran dentro del dominio de los sistemas complejos, y las matemáticas juegan un papel determinante.

La primera dificultad que surge a la hora de definir un modelo para el estudio de un sistema neuronal está en la elección de las variables que deben intervenir. Como en la mayoría de los procesos vivos, las posibles variables son tantas que es imprescindible decidir qué juegan un papel más importante en el problema de estudio.

En el caso de las redes neuronales, las posibilidades se extienden, por ejemplo, desde la configuración molecular de todas y cada una de las terminales sinápticas hasta las condiciones ambientales -temperatura, nivel de oxígeno, etc.- en que estén inmersas. Otra cuestión esencial es determinar qué características del sistema son informativas por el problema tratado, es decir, cuáles son las propiedades el conocimiento de las que aporta información sobre los mecanismos que subyacen. Parece claro que las redes neuronalestransmiten información a  través de la emisión de potenciales de acción, pero no es evidente en qué aspectos de su dinámica está codificada esta información. La información podría depender, por ejemplo, los instantes concretos en que cada una de las neuronas dispara un potencial de acción o simplemente de propiedades estadísticas en la secuencia de emisión de estos potenciales de acción.

Dos son los objetivos principales de este trabajo. El primero surgió a raíz del interés por el estudio de las redes neuronales desde una perspectiva teórica y sistemática. El modelo de Wilson y Cowan es un buen punto de partida, tanto por su carácter precursor en el transcurso histórico de la neurociencia como por su relativa sencillez y, al mismo tiempo, debido a que ha sido la base de múltiples trabajos posteriores. El primer objetivo es, pues, la comprensión, deducción y análisis del modelo de Wilson y Cowan. El segundo objetivo está motivado por el primer pero tiene, también, entidad propia. Se trata de la ampliación de los conocimientos en el contexto de los sistemas dinámicos continuos y la teoría de bifurcaciones. Esta investigación teórica no sólo debe servir para adquirir herramientas que faciliten el análisis de los modelos neuronales, sino que resulta interesante en sí misma. Un de los aspectos fascinantes de la investigación a caballo entre dos disciplinas es el hecho de que los problemas de la primera generen preguntas en el contexto de la segunda y viceversa.

Esta memoria es un resumen de la exploración que, a lo largo de los últimos meses, he hecho en estos dos ámbitos. He intentado que el texto sea lo más autoconsistente posible, en el sentido de que prácticamente no sea necesario consultar fuentes adicionales para seguir la lectura. De esta manera, el trabajo está formado por tres partes principales. La primera es un resumen de algunos de los aspectos básicos de la teoría de sistemas dinámicos sobre los que se fundamentan los conceptos posteriores. La segunda es una introducción a la teoría de bifurcaciones, y sigue la estructura y la notación del libro «Elements of Applied Bifurcation Theory», de YA Kuznetsov[4]. La tercera y última parte está dedicada a la descripción, formulación y análisis del modelo de Wilson y  Cowan.

MARCO TEÓRICO

El modelo de Wilson y Cowan

Un modelo de red neuronal

La complejidad inherente a los sistemas biológicos hace muy compleja la construcción de modelos con capacidad explicativa o predictora. Una de las preguntas principales es cuál o cuáles son las variables que un buen modelo debería tener en cuenta. A priori hay muchos modelos posibles, y la dificultad comienza en el momento en que hay que decidir cuáles son los aspectos del sistema que son relevantes para el problema de estudio y cuáles son las variables que más fuertemente determinan su evolución. Esta cuestión es una de las más fundamentales porque marca de forma decisiva las características del modelo y, por tanto, su capacidad explicativa.

El estudio de las redes neuronales es un ejemplo paradigmático. Una red neuronal es un entramado de células nerviosas conectadas entre sí -las neuronas- a través de la cual circula un flujo de información. Esta información se manifiesta en forma de diferencia de potencial eléctrico entre un lado y otro de la membrana celular. En estado de reposo, la diferencia de potencial de una neurona es cercana a un valor de equilibrio, que está en torno a los -70 mV. Diferentes factores ambientales, como la presencia de señales químicos, pueden hacer fluctuar el potencial de membrana por encima o por debajo de este valor, pero generalmente hay un retorno al valor inicial de equilibrio.

Sólo cuando el potencial sobrepasa un cierto valor umbral, se produce una serie de cambios en la membrana que hacen que el potencial se eleve de forma repentina muy por encima del potencial de equilibrio. Este potencial de acción se extiende por toda la membrana celular y marca un estado diferenciado en la fisiología de la neurona que llamamos activación. Sin embargo, la duración de un potencial de acción es extremadamente corta: inmediatamente después, la neurona entra en un periodo refractario, aunque transitorio, durante el cual debe recibir estímulos mucho más potentes para poderse volver a activar.

La comunicación entre las neuronas de una red se fundamenta en el envío de señales químicas -a través de neurotransmisores- que modifican la fisiología de la membrana de la neurona receptora. Esta comunicación, sin embargo, sólo es posible entre neuronas que están previamente «conectadas» en el espacio. La conexión, en este contexto, no es más que la proximidad entre un axón de la neurona emisora ​​y una dendrita de la receptora en una región que llamamos sinapsis. Además, la efectividad de la transmisión de información depende fuertemente de la configuración de las estructuras que forman la sinapsis. En este sentido, podemos hablar de sinapsis débiles y sinapsis más fuertes.

Por otra parte, las conexiones pueden ser excitatorias (cuando la activación de la neurona emisora ​​aumenta la probabilidad de activación de la receptora) o inhibitorias (si la activación de la neurona emisora ​​hace disminuir la probabilidad de activación de la neurona receptora). Es importante remarcar que una misma neurona puede emitir y recibir información de miles de otras neuronas.

En general, se acepta que una misma neurona tiene un papel o bien excitador o inhibidor sobre todas las neuronas con las que tiene contacto, pero no un comportamiento mixto.

La multitud de configuraciones posibles de una red -en cuanto a la distribución de las conexiones ya la naturaleza de cada una de las sinapsis- hace que, a priori, una enorme diversidad de patrones de conectividad sean posibles. Se cree que la conectividad está íntimamente relacionada con la actividad de las redes y, en definitiva, con su capacidad de computación. Por lo tanto, cualquier modelo neuronal debería incorporar información sobre la conectividad. Como la naturaleza de las conexiones se puede describir a múltiples niveles, antes de formular un modelo hay que plantearse a fondo cuáles son las propiedades que es importante que refleje. Al mismo tiempo, es esencial decidir qué aspectos de la dinámica neuronal son informativos en la hora de describir, con la finalidad de comprender, cómo funcionan las redes neuronales.

El modelo de Wilson y Cowan

En 1972, Hugh R. Wilson y Jack D. Cowan, de la Universidad de Chicago, publicaron un artículo donde proponían un modelo para la dinámica de una red de neuronas. El artículo ha tenido una gran influencia en el desarrollo de la neurociencia teórica y computacional, y ha sido el punto de partida de varios trabajos posteriores.

El modelo de Wilson y Cowan es un sistema de ecuaciones diferenciales ordinarias para la activación a lo largo del tiempo de una población de neuronas interconectadas. El componente clave del modelo es el tratamiento de la red en términos estadísticos, en el sentido de que las variables del sistema no dependen de las configuraciones individuales de cada una de las neuronas sino de propiedades globales de la red.

El modelo de Wilson y Cowan describe la evolución temporal de la actividad media de dos poblaciones de neuronas  que forman parte de una misma red. Aquí, el término «actividad media «se refiere a la proporción de células de cada población que están activas por unidad de tiempo.

Esta actividad depende fundamentalmente de propiedades intrínsecas de la red y de la robustez media de las sinapsis excitatorias-excitatorias, excitatorias-inhibitorias, etcétera. El modelo también tiene en cuenta la influencia de estímulos externos a la red. El resultado es un sistema de dos ecuaciones diferenciales ordinarias dependiendo de parámetros. A continuación describiremos brevemente los pasos que llevan a la formulación del modelo, tal y como fueron propuestos por Wilson y Cowan en su artículo original [5].

Formulación

Supongamos que tenemos una red de neuronas que podemos agrupar en una población excitatoria y en una de inhibitoria. Supongamos que las células están lo suficientemente cerca y sus conexiones son aleatorias y bastante abundantes para que haya al menos un camino que conecta dos neuronas cualesquiera de la red. Las variables del modelo son la proporción de células excitatorias e inhibitorias que están activas por unidad de tiempo, que llamamos E (t) y E (t), respectivamente. Consideramos como unidad temporal el milisegundo (ms).

Asumimos que una neurona deviene activa cuando no está dentro del período refractario (decimos que es sensible) y recibe un nivel de excitación mayor o igual que su umbral de activación. Supongamos también que, tras de la emisión de un potencial de acción, cada neurona entra en un periodo refractario absoluto, de duración r ms, durante el cual no puede activarse (independientemente del nivel de excitación recibida).

BIBLIOGRAFIA

[1] Dayan P, Abbott LF. Theoretical Neuroscience. Computational and Mathematical Modeling of Neural Systems. Cambridge: MIT Press, 2001.

[2] Guckenheimer J, Holmes P. Nonlinear Oscillations, Dynamical Systems and Bifurcations of Vector Fields. New York: Springer-Verlag, 2001.

[3] Hoppensteadt FC, Izhikevich EM. Weakly Connected Neural Networks. New York: Springer-Verlag, 2007.

[4] Kuznetsov YA. Elements of Applied Bifurcation Theory. New York: Springer-Verlag, 2008.

[5] Wilson HR, Cowan JD. Excitatory and Inhibitory Interactions in Localized Populations of Model Neurons. Biophysical Journal. 2002; 12: 1–24.

[6] Perko L. Differential Equations and Dynamical Systems. New York: Springer-Verlag, 2001.