Modelos matem´aticos para el estudio de la activaci´on de la corteza cerebral Juan Alberto Escamilla Reyna 1999
Introducci´ on La modelaci´on matem´atica, en el ´area de las neurociencias, ha tenido ´exito en los distintos niveles de organizaci´on del cerebro, baste recordar uno de los ´exitos m´as famosos, el logrado por los neurofisi´ologos A. Hodgkin y A. Huxley (H-H), que en el a˜ no 1952 [57], construyeron un modelo matem´atico para explicar la din´amica del potencial de membrana de una neurona, en funci´on de las corrientes i´onicas subyacentes. El modelo se toma todav´ıa como ejemplo para la elaboraci´on de modelos “realistas” de neuronas [21], [99], [100]. El modelo de H-H consta de cuatro ecuaciones diferenciales no lineales –otros modelos constan de m´as ecuaciones–. El estudio matem´atico de estos modelos es muy complejo y se ha abordado usando diversas herramientas matem´aticas : m´etodos num´ericos, teor´ıa cualitativa de ecuaciones diferenciales, teor´ıa de bifurcaciones, m´etodos de peque˜ no par´ametro, etc. [16], [21], [28], [97], [100]. Otros ´exitos famosos, son los logrados en el ´area de las redes neuronales, desde el trabajo pionero de Mc Culloch-Pitts [80], en el cual se construye una red neuronal, con neuronas artificiales muy simplificadas, pero basada en algunas propiedades de las neuronas reales, hasta los trabajos de Hopfield [59], [60]. Los trabajos de Hopfield han sido muy importantes para el estudio de la memoria asociativa. Actualmente, el ´area de las redes neuronales es muy fruct´ıfera, se desarrolla fundamentalmente en dos l´ıneas de investigaci´on: la primera, tiene como objetivo construir redes neuronales que resuelvan problemas en diversas ´areas, computaci´on, matem´aticas, etc., independientemente de que si las propiedades de las neuronas y los par´ametros que intervienen en la red tienen alguna relaci´on significativa con las neuronas reales. La segunda, intenta construir redes neuronales “realistas”, que ayuden a explicar fen´omenos fisiol´ogicos reales. Para la primera l´ınea de investigaci´on se pueden ver los trabajos [10], [12], [43], para la segunda [24], [40], [41], [75]. En esta ´area de investigaci´on tambi´en se presentan problemas matem´aticos complejos que se han abordado con m´etodos num´ericos, ecuaciones diferenciales, teor´ıa de bifurcaciones y t´ecnicas de peque˜ no par´ametro. En el ´area de la electroencefalograf´ıa, se han elaborado modelos considerando al cerebro como un medio conductor de la electricidad, y con una aproximaci´on cuasi-est´atica, para tratar el problema de localizaci´on de I
fuentes, para una distribuci´on de potencial en el cuero cabelludo. Este problema no tiene soluci´on u ´nica y usualmente se agregan hip´otesis, sugeridas por la anatom´ıa y fisiolog´ıa del cerebro, a las posibles fuentes que originan la distribuci´on de potencial dada sobre el cuero cabelludo. Estos modelos plantean problemas matem´aticos que se ubican en el ´area matem´atica de los problemas inversos. Tambi´en se auxilian con los m´etodos matem´aticos de la teor´ıa del potencial. La principal limitante de los modelos de medio conductor cuasi-est´aticos es que no pueden informar sobre el origen fisiol´ogico de los patrones temporales r´ıtmicos observados en el electroencefalograma. En cuanto al estudio din´amico de la actividad cortical y su relaci´on con la din´amica de los electroencefalogramas (EEG), se han elaborado diversos modelos. Estos se pueden clasificar, grosso modo, en modelos locales, modelos globales y modelos locales-globales. En los modelos locales se trata de explicar la din´amica de la actividad cortical en funci´on de lo que ocurre a nivel sin´aptico [33], [34], [75], [76], [77], [95]. En los modelos globales, se considera que la din´amica de la actividad cortical se puede explicar usando propiedades macrosc´opicas de la propia corteza [87], [88], [89], [90], [92] y en los modelos locales-globales, se mezclan ambos niveles [64], [66], [68], [104], [105]. Entre los modelos globales, se encuentra el elaborado por Nu˜ nez [89], [92]. Es un modelo global lineal de interacci´on neuronal que describe la propagaci´on de ondas de frecuencias bajas en la corteza cerebral, sus resultados coinciden –cualitativamente– con datos experimentales relacionados con el ritmo alfa y con algunos otros fen´omenos electroencelogr´aficos [89], [92]. Sin embargo, su modelo no incluye otros fen´omenos fisiol´ogicos, como los correspondientes a los diversos estados del sue˜ no. El modelo relaciona la actividad sin´aptica –excitatoria e inhibitoria– en cada elemento de corteza x en el tiempo t, con el n´ umero de potenciales de acci´on que se “generan” en los dem´as elementos de corteza en tiempos anteriores, teniendo en cuenta las conexiones sin´apticas y las velocidades de propagaci´on de los potenciales de acci´on. El objetivo de esta tesis es elaborar y estudiar modelos que describen la din´amica de la actividad cortical, utilizando variables y par´ametros que se puedan medir y as´ı poder correlacionarlos con las mediciones reales de dicha actividad. Los modelos que elaboramos desarrollan las ideas de Nu˜ nez en al II
menos dos direcciones: se introducen nuevos par´ametros y se toma en cuenta la no homogeneidad de la corteza cerebral. Adem´as, el enfoque matem´atico usado –ecuaciones diferenciales parciales ordinarias, t´ecnicas de peque˜ no par´ametro, etc.– nos permiti´o estudiar modelos no lineales de una manera menos complicada. Ver cap´ıtulos 2 y 3 de esta tesis. La tesis fue dividida en tres cap´ıtulos. En el cap´ıtulo 1, se hace un recuento breve sobre la estructura y funcionamiento del cerebro en sus distintos niveles, los diversos m´etodos y t´ecnicas para obtener informaci´on y comentarios sobre los diversos modelos matem´aticos que existen a nivel neurona, redes y estructuras completas. En el cap´ıtulo 2, describimos los fundamentos anat´omicos y fisiol´ogicos de los modelos matem´aticos que construimos. Analizamos dichos modelos y los comparamos con el modelo de Nu˜ nez. En el tercer cap´ıtulo describimos los resultados fundamentales que obtuvimos.
III
Contenido Cap´ıtulo 1 El cerebro : su estructura, funciones y diferentes formas de medir y modelar su actividad 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9
El cerebro : un sistema complejo....................................................... Algunas estructuras importantes del cerebro..................................... La neurona y su fisiolog´ıa.................................................................. Bases f´ısicas del potencial de reposo de la membrana y del potencial de acci´on............................................................................................ T´ecnicas para obtener informaci´on del cerebro.................................. Algunos modelos de estructuras del cerebro...................................... Redes neuronales................................................................................ Modelos de medio conductor.............................................................. Conclusiones.......................................................................................
1 2 4 8 12 19 22 30 34
Cap´ıtulo 2 Modelaci´ on global de la actividad sin´ aptica de la corteza cerebral 2.1 Introducci´on......................................................................................... 2.2 Bases fisiol´ogicas para la modelaci´on de la actividad sin´aptica en la corteza cerebral.................................................................................... 2.3 Descripci´on y simplificaciones en el modelo global de actividad sin´aptica en una banda de corteza....................................................... 2.4 Algunos modelos alternativos al modelo de Nu˜ nez.............................. 2.5 Desarrollo y estudio de un modelo de la actividad sin´aptica de la corteza cerebral.................................................................................... 2.6 Transformaci´on del sistema de ecuaciones integrales en un sistema de ecuaciones diferenciales parciales......................................................... 2.7 La ecuaci´on de activaci´ on para la corteza cerebral.............................. 2.8 Construcci´on de un modelo compartimentado de activaci´ on de la corteza cerebral....................................................................................
IV
35 36 44 51 56 60 65 68
Cap´ıtulo 3 An´ alisis matem´ atico del modelo de activaci´ on de la corteza cerebral 3.1 Un modelo matem´atico para una rebanada de corteza cerebral.......... 3.2 Controlabilidad de los estados fisiol´ogicos de la corteza cerebral........ 3.3 Existencia de ondas viajeras en la corteza cerebral............................. 3.4 Ondas estacionarias en la corteza cerebral..........................................
82 89 106 126
Conclusiones .............................................................................................. Bibliograf´ıa ................................................................................................
129 131
V
Cap´ıtulo 1 EL CEREBRO: SU ESTRUCTURA, FUNCIONES Y DIFERENTES FORMAS DE MEDIR Y MODELAR SU ACTIVIDAD 1.1 EL CEREBRO: UN SISTEMA COMPLEJO El cerebro es un sistema extremadamente complejo. Est´a compuesto de aproximadamente 1011 neuronas densamente interconectadas. Existen alrededor de 1015 conexiones entre las neuronas. Cada neurona se conecta con alrededor de 104 neuronas y recibe conexiones de aproximadamente 104 neuronas. Adem´as las neuronas est´an rodeadas por un n´ umero igual o mayor de c´elulas, llamadas c´elulas gliales. Estudiar el diagrama de conexiones del cerebro es una tarea enorme, a pesar de que en muchas ´areas del cerebro se ha logrado establecer que las interconexiones entre las neuronas no se hacen al azar, sino que “siguen leyes” bastante definidas. Pero aunque logr´aramos establecer perfectamente el diagrama de conexiones del cerebro, ´este ser´ıa extremadamente dif´ıcil de manejar. Tarea igual de compleja o m´as es determinar c´omo funcionan las distintas estructuras del cerebro y c´omo se acoplan entre ellas. El cerebro procesa la informaci´on en diferentes escalas espacio-temporales. Se dan interacciones a nivel sin´aptico, entre grupos de neuronas de diversos tama˜ nos, entre ´areas cerebrales, etc. de las cuales surgen fen´omenos que no se pueden explicar en 1
una sola escala espacio-temporal y que requieren un tratamiento cuidadoso en varias de estas escalas. 1.2 ALGUNAS ESTRUCTURAS IMPORTANTES DEL CEREBRO La informaci´on que se presenta en esta secci´on, fue obtenida de los libros [17], [71], [106]. Para una informaci´on m´as detallada sobre las distintas estructuras del cerebro y sus funciones recurrir a ellos. Se ha logrado establecer que el cerebro se encuentra dividido en muchas estructuras que interact´ uan entre s´ı. De algunas de ellas se conoce aproximadamente su estructura anat´omica y las funciones cerebrales en las que est´an involucradas. La corteza cerebral, la parte exterior del cerebro y, desde el punto de vista evolutivo, la parte m´as reciente del cerebro, es un ´organo muy complejo de aproximadamente dos cent´ımetros de espesor y una superficie aproximada de 1600 cm2 . En la cavidad craneana, la corteza se encuentra densamente plegada, formando giros y surcos. Se divide en cuatro regiones, los l´obulos frontal, parietal, occipital y temporal. Cada uno de ellos cumple con funciones distintas. Se considera que la corteza se encuentra involucrada en las siguientes actividades : percepci´on sensorial, actividades motoras voluntarias, almacenamiento de distintos tipos de memoria, actividad conciente, etc. A pesar de su complejidad – gran cantidad de circunvoluciones y aproximadamente 1010 neuronas densamente interconectadas– la corteza tiene un conjunto de caracter´ısticas anat´omicas y funcionales que facilitan la elaboraci´on de modelos que nos permiten estudiarla te´oricamente. Algunas de estas caracter´ısticas son: 1. Es un ´organo estratificado que consta de seis capas horizontales de distintas densidades, adem´as la corteza es bastante uniforme en el plano determinado por cada capa.
2
2. Tiene una organizaci´on columnar, es decir las neuronas se agrupan por columnas de diversos tama˜ nos - minicolumnas, columnas y macrocolumnas corticales - que se traslapan y se orientan perpendicularmente a la superficie cortical. 3. La corteza cerebral est´a mucho m´as densamente interconectada consigo misma que con otras estructuras del cerebro. La estructura que tiene m´as conexiones con la corteza es el t´alamo y ´este contribuye con el 1% de las conexiones que tiene la corteza. En el siguiente cap´ıtulo presentaremos mayor informaci´on cualitativa y cuantitativa que justifique los modelos te´oricos que estudiaremos. Por ahora terminaremos diciendo que en la corteza cerebral humana se procesa la informaci´on en m´ ultiples escalas espacio temporales. Se dan interacciones entre neuronas, entre minicolumnas, entre columnas corticales, entre macrocolumnas, entre ´areas corticales e interacciones que involucran todas estas escalas. El t´alamo es una estaci´on de relevo y centro integrador de las entradas sensoriales a la corteza. Se cree que tambi´en regula el nivel de conciencia y los aspectos emocionales de las sensaciones. El hipot´alamo se considera como la interfaz cerebral con los sistemas hormonal y aut´onomo que controlan la home´ostasis interna del cuerpo. El t´alamo y el hipot´alamo constituyen conjuntamente el dienc´efalo o cerebro intermedio. El sistema l´ımbico ocupa una porci´on cortical y una porci´on subcortical. Se encarga de las funciones relacionadas con la emoci´on, la motivaci´on y ciertos tipos de memoria. Dos subestructuras del sistema l´ımbico son el hipocampo y la am´ıgdala. El hipocampo juega un papel importante en la memoria. La am´ıgdala coordina las acciones de los sistemas aut´onomo y endocrino. El cerebelo tiene una estructura muy sistematizada y hom´ogenea en todo el ´organo. La funci´on m´as importante del cerebelo es la coordinaci´on de la actividad motora y de la “postura”. Los ganglios basales son cinco n´ ucleos altamente interconectados: caudado, putamen, globo p´alido, n´ ucleo subt´alamico y sustancia nigra. Los 3
ganglios basales se considera que est´an implicados en aspectos cognitivos superiores del control motor y en otras muchas funciones. Por u ´ltimo, los hemisferios cerebrales est´an formados por la corteza y tres estructuras profundas: los ganglios basales, el hipocampo y el n´ ucleo amigdalino. Aunque cada hemisferio tiene funciones especializadas, ambos trabajan en asocaci´on en lo que se refiere a funciones perceptivas, cognitivas y motoras superiores. Existen muchas otras estructuras que no mencionamos en esta secci´on. Tampoco mencionamos las distintas interrelaciones que existen entre las diversas estructuras. Para mayor informaci´on se puede recurrir a los libros mencionados al inicio de esta secci´on. 1.3 LA NEURONA Y SU FISIOLOG´IA Una exposici´on detallada de los temas expuestos en esta secci´on y la siguiente se puede encontrar en [17], [20], [71], [106], [116], [117]. Las neuronas del cerebro presentan una gran variedad de formas y tama˜ nos, (Fig. #1) , pero en todas ellas se pueden identificar cuatro partes (Fig. #2): 1. El cuerpo celular o soma. 2. Las dendritas. 3. El ax´on. 4. Los terminales ax´onicas o sin´apticas. En el funcionamiento de la neurona, cada una de estas partes tiene un papel espec´ıfico: 1. El cuerpo celular es el centro metab´olico de la neurona y el lugar donde se procesa la informaci´on. Su di´ametro var´ıa de 5 a 100µ.
4
2. Las dendritas son el centro receptor de la informaci´on de la neurona. Por lo general, la neurona recibe la informaci´on (en su mayor parte de tipo el´ectrico) a trav´es de las dendritas, aunque algunas veces la recibe directamente a trav´es del cuerpo celular. 3. El ax´on es una fibra nerviosa que nace del cuerpo celular y es el encargado de transportar las se˜ nales que genera la neurona, en ocasiones transportando la se˜ nal a distancias considerables. El di´ametro de los axones en humano, var´ıa de 0.1µ a 20µ. Frecuentemente los axones est´an envueltos en una vaina grasa, denominada mielina. La vaina est´a dividida por espacios regulares sin mielina, llamados nodos de Ranvier. La misi´on de la vaina de mielina es aumentar la velocidad de propagaci´on de las se˜ nales generadas por la neurona. 4. Los terminales ax´onicos o sin´apticos constituyen los elementos de transmisi´on de la neurona. A trav´es de ellos una neurona contacta y transmite la informaci´on a la zona receptora de otra neurona. La zona de contacto se llama sin´apsis y por lo general la zona postsin´aptica se ubica en las dendritas, aunque tambi´en ocurren contactos sin´apticos en el cuerpo celular de la neurona y algunas veces en el ax´on de la neurona. Existen aproximadamente 104 contactos sin´apticos por neurona. En condiciones de reposo, toda la neurona (cuerpo celular, soma, dendritas) est´a polarizada de manera tal que el interior tiene un potencial de -70 mV , considerando que la superficie externa de la membrana es el nivel de referencia, es decir, tiene potencial cero. Este potencial de la neurona es llamado potencial de reposo de la membrana. El potencial de reposo puede variar, dependiendo del tipo de neurona, pero el interior de la membrana de la neurona queda siempre cargado negativamente, con respecto al exterior de la misma. Adem´as este potencial puede cambiar en respuesta a diversos est´ımulos como temperatura, PH, concentraciones extracelulares de iones, corrientes el´ectricas, etc. Como ya mencionamos anteriormente la neurona recibe la informaci´on (de otras neuronas o informaci´on producida por medios artificiales) a trav´es de las dendritas. Esta informaci´on se presenta como un cambio en el potencial el´ectrico en las dendritas; que llamaremos potenciales postsin´apticos. Estos potenciales, tienen una magnitud entre 0.1 − 10 mV , son de naturaleza 5
local, pasivos y disminuyen en intensidad progresivamente y no se detectan m´as all´a de 1 ´o 2 mm del sitio de origen. El cuerpo celular los suma espacial y temporalmente y cuando se alcanza un cierto umbral, la neurona “genera” una se˜ nal, llamada potencial de acci´on. Esta se˜ nal es un impulso el´ectrico que se propaga por el ax´on hasta los terminales ax´onicos, donde la despolarizaci´on produce la liberaci´on de neurotransmisores que se propagan a trav´es del espacio sin´aptico y afectan a la membrana postsin´aptica. Esta afectaci´on modifica el estado el´ectrico de la membrana y puede ser de tipo excitatorio despolariz´andola y as´ı ayudar a la neurona receptora a que “genere” m´as f´acilmente un potencial de acci´on, o de tipo inhibitorio que tiene el efecto contrario. Estos potenciales postsin´apticos ser´an llamados potenciales excitatorios postsin´apticos (PEPS) si excitan a la neurona y potenciales inhibitorios postsin´apticos (PIPS) si la inhiben. La se˜ nal que genera una neurona, es decir, el potencial de acci´on tiene las siguientes propiedades : 1. Se propaga activamente a lo largo del ax´on. 2. No disminuye su intensidad en funci´on de la distancia. 3. Es de naturaleza todo o nada. 4. Es semejante en todas las neuronas. La amplitud del potencial de acci´on es de unos 100 mV y dura de 0.5 a 2 milisegundos. Su velocidad de propagaci´on depende del di´ametro del ax´on y de su mielinizaci´on. 5. La mayor´ıa de las neuronas generan un potencial de acci´on cuando el est´ımulo aplicado es despolarizante. La magnitud del est´ımulo debe ser mayor que un cierto valor cr´ıtico, llamado el umbral de disparo de la neurona. Este umbral depende de la neurona y a´ un en la misma neurona puede cambiar. Tambi´en existen neuronas que generan un potencial de acci´on cuando el est´ımulo aplicado es hiperpolarizante y de cierta duraci´on. 6. Si el mismo est´ımulo aplicado a la neurona, se mantiene durante un cierto tiempo, el umbral de disparo de la neurona disminuye.
6
7. Una vez que se genera un potencial de acci´on, la neurona es incapaz, durante cierto tiempo, de generar un nuevo potencial de acci´on, independientemente de la magnitud del est´ımulo que se le aplique, en este caso se dice que la neurona est´a en estado refractario. Al tiempo que dura la neurona en estado refractario se le llama per´ıodo refractario absoluto. Existe un intervalo de tiempo, llamado per´ıodo refractario relativo, durante el cual el umbral de disparo de la neurona aumenta y con esto dificultar la generaci´on de nuevos potenciales de acci´on. El per´ıodo refractario absoluto de una neurona determina la frecuencia de generaci´on de potenciales de acci´on. 8. Un potencial de acci´on se puede generar mediante est´ımulos de corriente que var´ıen linealmente con el tiempo, con tal que la pendiente sea mayor que un cierto valor cr´ıtico. Si la pendiente es menor que este valor cr´ıtico, no se genera ning´ un potencial de acci´on, sin importar qu´e tan grande sea la despolarizaci´on de la membrana. A esta propiedad de la membrana se le llama acomodaci´on. El mecanismo de propagaci´on del potencial de acci´on se puede describir esquem´aticamente de la siguiente manera: el est´ımulo inicial en un punto del ax´on (una despolarizaci´on de la neurona de cierta magnitud) provoca corrientes locales que fluyen de manera pasiva a trav´es de la membrana, causando una variaci´on en el potencial de reposo en zonas cercanas al punto estimulado. Esta despolarizaci´on en las zonas cercanas “genera” un mecanismo en la membrana que genera un voltaje muchas veces mayor que el inicial, el cual a su vez produce corrientes locales que causan un cambio en el potencial en las zonas adyacentes y as´ı sucesivamente. Est´a claramente demostrado que el potencial de acci´on no se puede propagar por el ax´on como si ´este fuera un cable (en forma pasiva) ya que en este caso el potencial decrecer´ıa en forma exponencial y la rapidez de decrecimiento estar´ıa en funci´on de la resistencia de la membrana ax´onica y de la resistencia a las corrientes que fluyen longitudinalmente a trav´es del ax´on
7
1.4 BASES F´ISICAS DEL POTENCIAL DE REPOSO DE LA ´ MEMBRANA Y DEL POTENCIAL DE ACCION Toda neurona contiene en su interior varios tipos de iones, entre los que se encuentra el sodio (N a+ ), el potasio (K + ) y el cloro (Cl− ) en distintas concentraciones, adem´as de algunas otras mol´eculas como amino´acidos, proteinas, etc. La membrana de una neurona tiene distintas permeabilidades con respecto a cada tipo de ion. La difusi´on de los iones a trav´es de la membrana celular se realiza a trav´es de zonas especiales restringidas de la membrana, llamados “poros” o “canales” y existe selectividad de estos canales para los distintos tipos de iones. La membrana tiene tambi´en mecanismos activos para “bombear” algunos de los tipos de iones (principalmente el potasio y el sodio) del interior al exterior de la membrana y rec´ıprocamente. En el exterior de la neurona tambi´en se encuentran distintos tipos de iones, principalmente sodio, potasio y cloro, en distintas concentraciones. Para el caso de la membrana neuronal en reposo del ax´on gigante del calamar, (ver Tabla 1). Los tipos de iones y las concentraciones de ´estos, pueden variar, dependiendo del tipo de neurona que se considere. Tabla 1 L´ıquido Potencial de Especie Citoplasma extracelular equilibrio∗ i´onica (mM) (mM) (mV) + K 400 20 −75 N a+ 50 440 +55 Cl− 52 560 −60 A− (iones 385 – – org´anicos) La distribuci´ on de los principales iones a trav´ es de la membrana neuronal en reposo del ax´ on gigante del calamar. ∗
Se denomina as´ı al potencial de membrana en el que no hay flujo neto de iones a trav´es de la membrana
8
Actualmente se considera que el potencial de reposo de la membrana se logra cuando los flujos pasivos y activos de N a+ , K + , Cl− est´an balanceados (Fig. #3), lo cual se logra cuando las fuerzas de difusi´on, provocadas por las distintas concentraciones de los iones, en el interior y exterior de la membrana se equilibran con las fuerzas el´ectricas, producidas por el hecho de que los iones son part´ıculas cargadas el´ectricamente. El potencial de acci´on se logra cuando la neurona se despolariza hasta un nivel cr´ıtico; en ese momento tiene lugar un cambio s´ ubito, donde las barreras normales que se oponen al flujo de sodio y potasio desaparecen moment´aaneamente, estableci´endose un flujo local de iones, de suficiente magnitud como para invertir el potencial de membrana, que alcanza unos 50 mV (positivo en el interior) y despu´es se invierte de nuevo para establecer el potencial de reposo. Pero la primera inversi´on (hacia el interior positivo) ha producido una se˜ nal potente que se extiende y lleva la regi´on adyacente de la membrana a un nivel cr´ıtico, repiti´endose entonces el proceso (Fig. #3). En la siguiente secci´on explicaremos m´as detalladamente esto y describiremos los diversos modelos que existen al respecto. Una ecuaci´on importante en la fisiolog´ıa es la ecuaci´on de Nernst, obtenida en 1888 por W. Nernst. Esta ecuaci´on relaciona el potencial de una membrana permeable a un ion con las concentraciones del ion en el interior y el exterior de la membrana. La ecuaci´on se aplica con la condici´on de que la corriente total i´onica sea igual a cero, es decir, cuando la corriente i´onica producida por el potencial es igual a la corriente producida por la diferencia de concentraciones en el interior y el exterior de la neurona. Supongamos que tenemos dos compartimientos A y B, donde se tiene una soluci´on que contiene un ion I, a diferentes concentraciones CA y CB y que los compartimientos est´an separados por una membrana permeable al ion I (Fig. #4)
Figura 4 A
ion I CA +
ion I −CB V 9
B
Como el ion I se encuentra a diferentes concentraciones en A y B, entonces se empezar´a a difundir del compartimiento de mayor concentraci´on al de menor concentraci´on pero como el ion lleva una carga, el compartimiento hacia el cual se est´a difundiendo empieza a aumentar su carga as´ı aumenta su voltaje frenando la difusi´on del ion. El equilibrio din´amico se lograr´a cuando el voltaje en el compartimiento que recibe los iones difundidos se equilibra con la fuerza de difusi´on que surge debido a las distintas concentraciones del ion. Es decir, cuando: µ
¶
RT CB (1.1) V = ln ZF CA donde V es el voltaje entre el compartimiento A y el compartimiento B, R es la constante de los gases ideales, T la temperatura (en grados Kelvin), Z la valencia del ion y F la constante de Faraday (la carga de una mole de part´ıculas univalentes), aproximadamente 9.65 × 104 C/mol. Esta ecuaci´on nos permite calcular el voltaje entre A y B en t´erminos de las concentraciones del ion en los compartimientos A y B, cuando el flujo neto de iones entre los compartimientos es cero. Este voltaje entre A y B es llamado el potencial de equilibrio del ion. En la Tabla 1 est´an los valores de los potenciales de equilibrio de algunos iones. En el caso que los compartimientos contengan m´as de un ion, con distintas concentraciones y que la membrana contenga canales independientes para el paso de los iones, se puede calcular el potencial de equilibrio de un solo ion, usando (1.1), con la condici´on de que la membrana tenga abierto, u ´nicamente, el canal de ese ion. Si todos los canales de la membrana est´an abiertos simult´aneamente, entonces el voltaje depender´a de las permeabilidades (facilidad con que un ion atraviesa la membrana (cm/seg)) relativas de los iones y de las concentraciones de los iones. Goldman (1943) calcul´o el potencial final promedio: ÃP
P
RT P + [I + ]A + Pi− [Ii− ]B ln P i+ +i V = P Zi F Pi [Ii ]B + Pi− [Ci− ]A
!
(1.2)
donde Pi+ , Pi− representan las permeabilidades de las especies i´onicas positivas y negativas respectivamente y [Ii+ ]∗ , [Ii− ]∗ son las concentraciones de estos iones en el compartimiento ∗.
10
En el caso de la membrana de una neurona sabemos que en el interior y el exterior de la misma se encuentran varios tipos de iones con distintas concentraciones y permeabilidades. Entre los principales se encuentran el sodio (N a+ ), el potasio (K + ) y el cloro (Cl− ). Aplicando (1.2) para estos tres iones obtenemos: "
KT Pk+ [K + ]e + PN a+ [N a+ ]e + PCla− [Cl− ]i V = ln F Pk+ [K + ]i + PN a+ [N a+ ]i + PCla− [Cl− ]e
#
(1.3)
En la ecuaci´on de Goldman se supone que el campo el´ectrico que existe a trav´es de la membrana var´ıa uniformemente, por lo que tambi´en se supone que los movimientos de los iones a trav´es de la membrana son independientes unos de otros. La importancia de este resultado es que nos permite hacer predicciones cuantitativas del potencial de membrana cuando se tienen variaciones de las concentraciones de los iones y de las permeabilidades de la membrana a los distintos iones. Usando la ecuaci´on de Nernst y con ciertos experimentos de tipo el´ectrico se ha logrado demostrar que la membrana de una neurona en estado de reposo no es permeable u ´nicamente al potasio sino que tambi´en es permeable al sodio, aunque la permeabilidad del sodio es muy peque˜ na con respecto a la del potasio. Se considera que la permeabilidad con respecto a los iones de sodio es aproximadamente el 1% de la correspondiente a los iones de potasio y por ello debe de haber una “bomba” en la membrana que bombea iones de sodio hacia el exterior de la membrana e iones de potasio al interior de la misma. Tambi´en se logr´o establecer lo que ocurre cuando una neurona genera un potencial de acci´on. El potencial de acci´on se genera cuando se logra una despolarizaci´on de la membrana de aproximadamente 15 mV y en ese momento ocurre que la permeabilidad de la membrana al sodio aumenta, por la apertura de canales de N a+ (que dependen del voltaje), lo que hace que el potencial se eleve. Esto a su vez permite que aumente la permeabilidad de la membrana, por un nuevo aumento de los “canales” de sodio, lo que hace que el potencial se eleve y as´ı sucesivamente, hasta que el potencial casi alcanza el potencial de equilibrio del sodio (se establece en la membrana un 11
mecanismo de retroalimentaci´on positiva entre el potencial de membrana y la permeabilidad de ´esta al sodio). Este potencial de equilibrio no se alcanza ya que cuando se inicia el aumento de la permeabilidad de la membrana al sodio, un corto tiempo despu´es empieza a aumentar la permeabilidad de la membrana al potasio y una entrada de cloro a la membrana. Adem´as los canales de sodio empiezan un proceso de inexcitabilidad y tambi´en se tiene un flujo pasivo de iones de potasio. En resumen, el potencial de acci´on se origina cuando la estimulaci´on el´ectrica alcanza un cierto umbral. Su din´amica se encuentra determinada por la relaci´on que existe entre las distintas corrientes i´onicas que se establecen en la membrana, tanto corrientes pasivas como activas. En la secci´on 1.6 se mostrar´an algunos modelos que describen este proceso de manera cuantitativa. Una manera equivalente de estudiar el potencial de membrana de una neurona consiste en construir un circuito el´ectrico que incorpore las tres propiedades b´asicas que utiliza la membrana para generar se˜ nales el´ectricas - los canales i´onicos, los gradientes de concentraci´on de los iones, la capacidad de la membrana para almacenar carga el´ectrica. Cada canal i´onico se puede representar como una resistencia (o como una conductancia que es la inversa de la resistencia). La conductancia para un canal i´onico ser´ıa en cierta medida, equivalente a la permeabilidad de la membrana a ese ion. La capacidad de la membrana para almacenar carga se puede representar como una capacitancia y los gradientes de concentraci´on como una bater´ıa (Figs. #5,6) El modelo de circuito equivalente es muy importante desde el punto de vista experimental ya que permite el uso de t´ecnicas electrofisiol´ogicas para el estudio de las se˜ nales neurales, en lugar del uso de is´otopos radiactivos que se usan para medir los cambios de permeabilidad y difusi´on de iones. ´ ´ DEL 1.5 TECNICAS PARA OBTENER INFORMACION CEREBRO En el proceso de obtener informaci´on sobre la estructura anat´omica y funcional del cerebro en sus diversos niveles –neurona, poblaciones de neu12
ronas y todo el cerebro– se han elaborado, con la ayuda de la tecnolog´ıa y otras ciencias, un conjunto de t´ecnicas e instrumentos que se han ido mejorando con el transcurso del tiempo y que han sido de gran utilidad para el diagn´ostico cl´ınico, para los neuroanatomistas y los neurofisi´ologos. Para el estudio anat´omico se han usado instrumentos como el microscopio ´optico, el microscopio electr´onico, etc. y algunos m´etodos de tinci´on selectiva como el m´etodo de Golgi, Nissl, Nauta, etc. El m´etodo de Golgi, inventado por Camilo Golgi alrededor de 1875, es un m´etodo de tinci´on selectiva que tiene la propiedad de que al te˜ nir un grupo de neuronas, s´olo algunas de ellas, aproximadamente una de cada cien se ti˜ nen por completo (dendritas, cuerpo celular, ax´on) y las dem´as quedan intactas. Con este m´etodo, Santiago Ram´on y Cajal logr´o establecer que el cerebro est´a constituido por c´elulas separadas, que las interconexiones entre ellas no eran al azar, adem´as de describir la arquitectura de una gran cantidad de estructuras del cerebro. Con el m´etodo de Nissl se logra destacar los cuerpos celulares de las neuronas, pero no sus dendritas y axones. Por mucho tiempo los neuroanatomistas usaron estos dos m´etodos de tinci´on para estudiar anat´omicamente el cerebro. Alrededor de 1952 W. Nauta invent´o un m´etodo de tinci´on selectiva, que actualmente lleva su nombre. Seg´ un D. H. Hubel, este m´etodo es el primer instrumento eficaz para cartografiar las conexiones entre las distintas estructuras del cerebro. El m´etodo de Nauta aprovecha el hecho de que, cuando se destruye una neurona, la fibra nerviosa que procede de ella degenera y, antes de desaparecer por completo, puede ser te˜ nida de manera diferente de sus vecinos normales. Los avances tecnol´ogicos y una mayor comprensi´on del funcionamiento de las neuronas han permitido crear t´ecnicas con las cuales, no s´olo se logra obtener informaci´on m´as precisa sobre las conexiones entre regiones cerebrales, identificar neuronas, sino tambi´en sobre las zonas activas del cerebro. Existen t´ecnicas que aprovechan el hecho de que las neuronas absorben y sintetizan varias sustancias – prote´ınas, enzimas, etc. –. Algunas de ´estas sustancias son transportadas, a trav´es del ax´on, desde el soma hasta los terminales ax´onicos (transporte anter´ogrado). Tambi´en existe un transporte de sustancias desde los terminales ax´onicos al cuerpo celular (transporte retr´ogrado).
13
La autorradiograf´ıa de Cowan (1972) es una t´ecnica que aprovecha el transporte ax´onico anter´ogrado para determinar los terminales ax´onicos de una neurona. Esta t´ecnica consiste en inyectar, en alguna estructura cerebral, amino´acidos marcados radiactivamente, ´estos penetran en el soma de la neurona y se incorporan en las sustancias que son transportadas hasta los terminales ax´onicos, donde se les puede detectar por un proceso de autorradiograf´ıa. Tambi´en se cuenta con t´ecnicas que aprovechan el transporte ax´onico retr´ogrado. Entre las m´as conocidas esta la t´ecnica de la peroxidasa de r´abano, se inyecta en el sistema nervioso, la enzima peroxidasa de r´abano, ´esta es absorbida por los terminales ax´onicos y transportada retr´ogradamente hacia el cuerpo celular, donde puede ser detectada por diversas t´ecnicas, y as´ı conocer el origen del ax´on. Para mayor informaci´on de otras sustancias que se usan para el estudio de las conexiones entre regiones cerebrales, otros m´etodos para detectar sustancias (la inmunohistoqu´ımica se basa en la detecci´on de sustancias tisulares por medio de anticuerpos), la hibridaci´on in situ, etc. recurrir a [51] y [107]. En este u ´ltimo se hace una revisi´on detallada de la organizaci´on neuronal y sin´aptica de la corteza cerebral. Bas´andose en el hecho de que la glucosa es el combustible de las neuronas, y ´estas consumen m´as glucosa cuando est´an activas que cuando se encuentran en reposo, Louis Sokoloff (1977) invent´o una t´ecnica que le permiti´o medir el metabolismo de las neuronas. La t´ecnica consiste en inyectar en el torrente sangu´ıneo un an´alogo qu´ımico de la glucosa (la 2–desoxiglucosa), que es absorbida por las neuronas, mediante el mismo sistema que la glucosa, aunque una vez en el interior de la neurona, ya no puede ser metabolizada. Si la 2–desoxiglucosa es marcada radiactivamente e inyectada en el torrente sangu´ıneo, la velocidad con que se acumula en el interior de las neuronas, nos proporciona un ´ındice de la actividad metab´olica de las neuronas. Las t´ecnicas que hemos mencionado hasta ahora requieren en alg´ un momento de la destrucci´on del sujeto de estudio. Con el desarrollo de la tecnolog´ıa se crearon nuevas t´ecnicas menos invasivas, que permit´ıan obtener informaci´on sobre la actividad del cerebro humano en vivo, por ejemplo la to14
mograf´ıa axial computarizada (TAC), la tomograf´ıa por emisi´on de positrones (TEP) y la formaci´on de imagenes por resonancia magn´etica (IRM), entre otras. Las herramientas te´oricas fundamentales para el an´alisis de los diferentes tipos de tomograf´ıas est´an vinculadas a la transformada de Radon y los m´etodos matem´aticos y computacionales de reconstrucci´on por proyecciones. Existe una vasta bibliograf´ıa de estos temas entre los que vale citar a [53], [54] y [85]. La tomograf´ıa axial computarizada se aprovecha del hecho que los distintos tejidos absorben diferentes cantidades de energ´ıa de rayos X; mientras m´as denso es el tejido, tanto m´as absorbe. Por ello un haz de rayos X muy concentrado que atraviese el cuerpo emerger´a del mismo a un nivel reducido de intensidad que depender´a de los tejidos y ´organos encontrados a su paso. Si se dirigen a trav´es del cuerpo haces planos de rayos X con diferentes ´angulos de inclinaci´on, se recoger´a informaci´on suficiente para reconstruir una imagen de la secci´on del cuerpo, la cual debidamente procesada permite reconstruir una imagen tridimensional de la intensidad de radiaci´on absorbida y por ende de la estructura interna del objeto estudiado. La tomograf´ıa por emisi´on de positrones, permite cartografiar las estructuras cerebrales activas ya que permite la medici´on de diversas actividades del cerebro, tales como el metabolismo de la glucosa, el consumo de ox´ıgeno, el riego sangu´ıneo y la interacci´on con los f´armacos. De todas estas variables, el flujo sangu´ıneo ha demostrado ser el indicador m´as fiable de la funci´on cerebral en cada momento. Con la TEP se pueden localizar cambios de actividad con precisi´on milim´etrica. La formaci´on de im´agenes por resonancia magn´etica (IRM) es un instrumento bastante com´ un para diagnosticar lesiones en tejidos. Tuvo su origen en una t´ecnica de laboratorio denominada resonancia magn´etica nuclear (RMN), dise˜ nada con el fin de explorar las caracter´ısticas qu´ımicas de las mol´eculas. La (RMN) se basa en que muchos ´atomos se comportan como diminutas agujas imantadas en presencia de un campo magn´etico. En estas condiciones, la aplicaci´on de impulsos de una onda radioel´ectrica a una muestra, perturba los ´atomos de una manera muy precisa, y ´estos en consecuencia emiten se˜ nales de radio detectables que identifican el n´ umero y el estado de los ´atomos pertenecientes a la muestra. El ajuste del campo magn´etico y de los impulsos de onda radioel´ectrica proporciona informaci´on 15
sobre la muestra de estudio. En el caso del cerebro P. C. Lauterbur descubri´o que pod´ıan formarse imagenes por RMN mediante la detecci´on de protones. La utilidad de estas part´ıculas, abundantes en el cuerpo humano, reside en su gran sensibilidad a los campos magn´eticos que los hace comportarse como min´ usculas agujas imantadas. De esta forma se obtuvieron excelentes imagenes anat´omicas con detalle muy superior a las conseguidas mediante TAC. El inter´es por aplicar la IRM a la obtenci´on de im´agenes cerebrales se debe a que esta t´ecnica es capaz de detectar una se˜ nal inaccesible a las exploraciones mediante TEP como por ejemplo, el aumento en la concentraci´on de ox´ıgeno que se produce en una zona donde se ha intensificado la actividad neuronal. Otras ventajas sobre la TAC y otras t´ecnicas son: 1. La se˜ nal procede directamente de cambios inducidos por causas funcionales en el tejido cerebral (el cambio en la concentraci´on de ox´ıgeno venenoso). 2. Para obtener una se˜ nal no hay que inyectar ninguna substancia, radiactiva o de otro tipo. 3. La IRM proporciona informaci´on anat´omica y funcional sobre cada sujeto, lo cual permite una identificaci´on estructural exacta de las zonas activas. 4. Adecuadamente equipada, puede observar en tiempo real el ritmo de cambio de la se˜ nal de ox´ıgeno inducida en el flujo sangu´ıneo. Sin embargo a pesar de las ventajas que proporciona la combinaci´on de estas t´ecnicas, ninguna de ellas puede determinar la evoluci´on temporal del intercambio de informaci´on en diferentes zonas del cerebro, lo cual es fundamental para estudiar c´omo se coordinan en red diferentes zonas del cerebro para la realizaci´on de una actividad dada. El obst´aculo que enfrentan la IRM y TEP para este objetivo es la gran diferencia de velocidades entre la actividad neuronal y el ritmo de variaci´on de los niveles de oxigenaci´on en las neuronas. Las se˜ nales viajan de una parte a otra del cerebro en 0.01 segundos o menos, pero los cambios de flujo sangu´ıneo y oxigenaci´on de la sangre son mucho m´as lentos y ocurren desde d´ecimas de segundo hasta varios segundos m´as tarde. La IRM no puede seguir las “conversaciones” entre regiones 16
cerebrales. Los u ´nicos m´etodos que responden con r´apidez suficiente son las t´ecnicas de registro el´ectrico, es decir, la electroencefalograf´ıa (EEG) que detecta la actividad el´ectrica del cerebro a partir de mediciones efectuadas sobre el cuero cabelludo y la magnetoencefalograf´ıa (MEG), la cual mide el comportamiento electromagn´etico que genera la actividad el´ectrica en el interior del cerebro. El defecto de estas t´ecnicas es que su resoluci´on espacial es menor que la de otras t´ecnicas y la localizaci´on precisa de las fuentes de actividad cerebral sigue siendo un problema muy complejo. En 1929 el psiquiatra alem´an Hans Berg demostr´o que era posible medir –usando electrodos colocados en el cuero cabelludo– la actividad el´ectrica del cerebro humano. Demostr´o que bajo ciertas condiciones en el sujeto de estudio (ojos cerrados, sin est´ımulos exteriores, relajado) el registro de la actividad el´ectrica segu´ıa un patr´on temporal r´ıtmico al que llam´o ritmo α. Este patr´on temporal ten´ıa una frecuencia entre 9 y 10 c/s. Los or´ıgenes fisiol´ogicos del ritmo α, siguen siendo motivo de controversia, algunos fisi´ologos consideran que el ritmo α se origina en el t´alamo y que el t´alamo le impone este ritmo a la corteza, a trav´es de las conexiones que existen entre ambos, mientras que otros consideran que este ritmo es una manifestaci´on de la actividad masiva de la corteza cerebral. Posteriormente se han descubierto otros patrones temporales r´ıtmicos que se producen bajo ciertas condiciones corporales especiales. Por ejemplo, el ritmo δ (0 a 5 Hz) se produce bajo sue˜ no profundo, el ritmo β (15 a 30 Hz) se produce bajo intensa actividad mental y otros m´as. El EEG (medido en el cuero cabelludo o en otras regiones del cerebro) se ha convertido en una herramienta cl´ınica importante para el estudio de ciertas patolog´ıas del cerebro, como la epilepsia, tumores cerebrales, etc. Estas patolog´ıas aparecen en el EEG como patrones anormales de la actividad el´ectrica espont´anea del cerebro. Los potenciales evocados (los potenciales que se producen como repuesta a un est´ımulo) se han usado en gran medida para el diagn´ostico cl´ınico de las afecciones sensoriales (auditivos, visuales, etc.) y en la detecci´on de problemas cognitivos [14], [92], [105]. Uno de los problemas fundamentales de la electroencefalograf´ıa consiste en correlacionar los patrones espacio-temporales obtenidos mediante el EEG con la actividad el´ectrica del cerebro y con conductas observables. Si se quiere 17
elaborar modelos que describan la din´amica de la actividad el´ectrica del cerebro y que se correlacionen con los patrones espacio-temporales obtenidos con el EEG; se requiere tomar en cuenta las escalas espacio-temporales en que est´an promediando las mediciones efectuadas ya que los datos electroencefalogr´aficos son obtenidos promediando la actividad neuronal en distintas escalas espacio-temporales. Existen EEG’s con distintas resoluciones tanto espaciales como temporales. Por ello las variables a considerar en nuestros modelos deben estar en congruencia con las escalas espacio-temporales usadas en el EEG. En el siguiente cap´ıtulo detallaremos los problemas que se presentan en esta ´area de estudio. Los modelos que m´as han sido estudiados son los que utilizan los principios de la teor´ıa del campo electromagn´etico considerando al cerebro como un medio continuo conductor, con una cierta geometr´ıa (que depende de las hip´otesis del modelo) y cierta conductividad variable. En el problema directo, se considera dada la ubicaci´on de las fuentes de corrientes impresas (zonas activas), su configuraci´on, la geometr´ıa de la cabeza y las conductividades de los distintos comportamientos (cuero cabelludo, cr´aneo, corteza, l´ıquido extracraneal, etc.) y se calcula la distribuci´on del potencial generado en estas condiciones, compar´andose los resultados te´oricos con los obtenidos con t´ecnicas electroencefalogr´aficas. Mediante el aporte de ambos datos se puede encontrar alguna informaci´on sobre la respuesta electrica de una zona activa dada. El problema inverso consiste en obtener informaci´on sobre la ubicaci´on de las fuentes de corrientes impresas y las conductividades en diferentes partes del cerebro usando los datos discretos que se obtienen con el EEG. Este problema no tiene soluci´on u ´nica, es decir, existe una multitud de distribuciones de fuentes de corriente en el cerebro que pueden producir la misma distribuci´on de potencial en el cuero cabelludo. Al no tener soluci´on u ´nica el problema inverso, usualmente se agregan restricciones, sugeridas por la anatom´ıa y fisiolog´ıa del cerebro, a las posibles fuentes que originan la distribuci´on de potencial dada sobre el cuero cabelludo. Usualmente estos modelos se restringen a la aproximaci´on electrost´atica por lo que son u ´tiles para estudiar la distribuci´on espacial de generadores de los EEG pero no as´ı sus propiedades temporales [9], [105]. 18
Para estudiar la din´amica espacio-temporal de la actividad el´ectrica se pueden construir ecuaciones plausibles, a partir de datos anat´omicos y fisiol´ogicos que involucren variables que sean congruentes con las escalas espacio-temporales usadas en los distintos EEG, para estudiar sus soluciones y su relaci´on con las mediciones obtenidas a trav´es del EEG. Finalmente, otro m´etodo usado consiste en elaborar una jerarqu´ıa de escalas espacio-temporales. En cada escala espacio-temporal se deducen las ecuaciones que gobiernan las variables que se consideran id´oneas en ese nivel y se estudia la relaci´on que existe entre un nivel y el nivel superior inmediato. En la secci´on siguiente desarrollaremos con mayor detalle algunos de estos modelos. 1.6 ALGUNOS MODELOS DE ESTRUCTURAS DEL CEREBRO En el estudio del cerebro se han elaborado diversos modelos para los distintos niveles del mismo. Se cuenta con modelos a nivel de neurona, grupos de neuronas, de subestructuras del cerebro y del cerebro completo. Cada uno de estos modelos toma en cuenta ciertos aspectos del cerebro dependiendo de los problemas que se quieren estudiar. Es importante recalcar que los elementos y las relaciones que se toman en cuenta para la elaboraci´on del modelo est´an intimamente relacionados con el nivel del cerebro que se est´e considerando y con los fen´omenos que se quieren explicar. Uno de los primeros ´exitos importantes en la modelaci´on matem´atica en el estudio del cerebro fue el logrado por A. Hodking y A. Huxley (H.H) en 1952 [57]. El modelo por ellos propuesto describe, por medio de un sistema de ecuaciones diferenciales no lineales, c´omo var´ıa temporalmente el potencial de membrana en funci´on de las corrientes i´onicas, que fluyen a trav´es de la membrana en el ax´on de un calamar. El modelo toma en cuenta tres corrientes i´onicas, la de potasio (IK ), la de sodio (IN a ) y una corriente de filtraje (IL ). Considera que las corrientes de sodio y potasio fluyen a trav´es de canales cuya conductancia depende del potencial de membrana y del tiempo.
19
De acuerdo con las leyes de Kirchhoff, se tiene que: Cm
dV = IN a + IK + IL , dt
(1.4)
donde Cm es la capacitancia de la membrana. Tambi´en se tiene: IN a = gN a (V − VN a ) ,
(1.5)
IK = gK (V − VK ) ,
(1.6)
IL = gL (V − VL ) ,
(1.7)
donde g∗ es la conductancia del ion ∗ y V∗ el potencial de equilibrio de dicho ion. Luego se tiene que Cm
dV = gN a (V − VN a ) + gK (V − VK ) + gL (V − VL ) . dt
(1.8)
En este modelo se considera que gN a y gK son dependientes del potencial V y gL es constante, es decir: Cm
dV = m3 h¯ gN a (V − VN a ) + n4 g¯K (V − VK ) + gL (V − VL ) , dt
(1.9)
donde g¯N a , g¯K son las conductancias m´aximas del sodio y el potasio y 0 < m, n, h < 1 donde m y n son variables de activaci´on y h una variable de inactivaci´on que obedecen las ecuaciones: dm = αm (1 − m) − βm m , dt
(1.10)
dn = αn (1 − n) − βn n , dt
(1.11)
dh = αh (1 − h) − βh h , dt
(1.12)
con coeficientes αm , βm , αn , βn , αh , βh que son funciones obtenidas empir´ıcamente y que dependen del potencial V . 20
Hodking y Huxley describen un gran n´ umero de experimentos controlados que involucran corrientes, conductancias y potenciales, cuyos resultados “coinciden” con las predicciones del modelo. El modelo (1.9), (1.10), (1.11) y (1.12) se construy´o bajo la hip´otesis de que el potencial de membrana sea uniforme a lo largo del ax´on, o se considere u ´nicamente un pedazo peque˜ no de membrana. Para estudiar situaciones en las que el potencial de membrana var´ıa temporal y espacialmente a lo largo del ax´on, este modelo no se puede aplicar. Usando resultados de la teor´ıa del cable se puede construir un sistema de ecuaciones diferenciales parciales no lineales que tomen en cuenta la dependencia espacial y generalicen el sistema (1.9), (1.10), (1.11), (1.12). En este caso el sistema de ecuaciones que se obtiene es 1 ∂ 2V ∂V = C + g¯N a m3 h(V − VN a )2πr R ∂x2 ∂t +{¯ gk n4 (V − Vk ) + g¯e (V − Ve )}2πr ,
(1.13)
∂m = αm (1 − m) − βm m , ∂t
(1.14)
∂h = αh (1 − h) − βh h , ∂t
(1.15)
∂n = αn (1 − n) − βn n , (1.16) ∂t donde r es el radio del ax´on, R es la resistencia por unidad de longitud en el interior del ax´on y C la capacitancia de la membrana por unidad de longitud. Para un resumen de los experimentos realizados por Hodking y Huxley y de los resultados obtenidos consultar [21]. Tambi´en se puede consultar [40]. El modelo es importante ya que describe la evoluci´on temporal del potencial de membrana en funci´on de las corrientes i´onicas subyacentes. Sin embargo, no toma en cuenta los eventos moleculares y qu´ımicos subyacentes al proceso, y por lo tanto no es posible predecir c´omo influyen en el proceso los cambios en el nivel qu´ımico y molecular. Adem´as no es un modelo universal, es decir, se aplica u ´nicamente al potencial de membrana de una neurona del calamar gigante. 21
El modelo de H-H incorpora u ´nicamente tres corrientes i´onicas, sodio, potasio y una corriente de filtraci´on, y debido a esto, el modelo consiste de un sistema de 4 ecuaciones diferenciales ordinarias. Existen otros modelos donde se incorporan m´as corrientes i´onicas, por ejemplo, Bucholtz, [16] elabora un modelo de la L. P. neurona en el ganglio estomatog´astrico del cangrejo. Este modelo consiste de un sistema de 14 ecuaciones diferenciales ordinarias. Otros neurofisi´ologos elaboran modelos de neuronas que siguen esencialmente los principios del modelo de H-H, los cuales incorporan m´as corrientes i´onicas o toman en cuenta las variaciones de las concentraciones de ciertos iones en el interior de la membrana. En [21] se presentan otros modelos de neuronas, tambi´en se pueden ver otros modelos en [99], [100]. El estudio matem´atico de estos modelos es bastante complejo debido al n´ umero de ecuaciones diferenciales que aparecen. Por lo general son “intratables” anal´ıticamente y a veces s´olo se pueden encontrar soluciones por integraci´on n´ umerica. Se han realizado algunos estudios cualitativos de algunos de estos modelos [58], [111]. Una t´ecnica que se usa frecuentemente es reducir, mediante alg´ un mecanismo, el n´ umero de dimensiones del modelo manteniendo las principales caracter´ısticas del mismo. Por ejemplo, Fitzhugh [28], [29], propone un modelo bidimensional para el modelo de H-H Abbot, Kepler [2] proponen un m´etodo de reducci´on m´as sistem´atico que el de Fitzhugh, ya que reducen el modelo de H-H a dos dimensiones, y Golomb, Guckenheimer, Gueron [39], aplican este m´etodo para reducir el modelo de Buchholtz a 7 dimensiones. Doya, Selverston [26] elaboran un m´etodo de reducci´on de variables usando redes neuronales artificiales. 1.7 REDES NEURONALES El estudio de la estructura y funcionamiento de una neurona es un paso importante en el estudio del cerebro, pero el cerebro est´a compuesto de aproximadamente 1011 neuronas densamente interconectadas, organizadas en grupos de diversos tama˜ nos. Las neuronas de un mismo grupo pueden interactuar entre s´ı y tambi´en pueden interactuar los grupos entre s´ı y frecuentemente se dan estos tipos de interacci´on de manera simult´anea. La estructura 22
de estos grupos y sus mecanismos de interacci´on no son muy conocidos. Los estudios experimentales de estos grupos de neuronas son dif´ıciles de realizar. Los modelos de redes neuronales (un conjunto de unidades elementales interconectadas) son una herramienta importante para resolver muchos problemas en el ´area de la ingenier´ıa de la computaci´on, matem´aticas, neurofisiolog´ıa, etc. En cada una de estas ´areas se interesan en diferentes aspectos de las redes neuronales, dependiendo de los problemas que se quieran resolver. A los neurofisi´ologos les interesa estudiar redes neuronales con la finalidad de estudiar el cerebro humano. Ellos desean construir redes neuronales “realistas” que imiten ciertas capacidades del cerebro como las sensoriales, las de aprendizaje y las relacionadas con la memoria. Tambi´en desean construir redes que describan los mecanismos subyacentes a los patrones r´ıtmicos que se detectan en el cerebro. Para los ingenieros, comput´ologos y matem´aticos, interesa construir redes neuronales con fines computacionales. A estas u ´ltimas se les conoce como redes neuronales artificiales y frecuentemente tienen poca relaci´on con lo que ocurre en el cerebro. Las redes neuronales se construyen siguiendo ciertas propiedades que tiene el cerebro. Est´an constituidas por un conjunto de n unidades elementales llamadas neuronas artificiales, unidades de procesamiento o nodos que est´an conectados entre s´ı. Las propiedades de las redes dependen del n´ umero de neuronas de que consta la red y de la forma en que se interconectan. Cada nodo se modela considerando algunas caracter´ısticas de las neuronas reales. Como mencionamos anteriormente una neurona real recibe la informaci´on por las dendritas, la procesa en el cuerpo celular y bajo ciertas condiciones emite potenciales de acci´on. Si la red tiene n nodos, a cada nodo i se le asignan tres cantidades: la entrada neta Si al nodo i, Ui = Ui (t), el estado interno del nodo en el instante t (potencial de membrana de una neurona real), la se˜ nal de salida yi del nodo i (n´ umero de potenciales de acci´on que dispara la neurona por unidad de tiempo) que es funci´on del estado interno, es decir yi = fi (Ui ) , 23
donde fi transforma el estado interno Ui en una se˜ nal de salida yi . La entrada Si al nodo i, usualmente se considera de la forma Si =
n X
Wij yi ,
j=1
donde Wij es el tercer tipo de magnitud asociada a un nodo y se llama peso sin´aptico. Esta cantidad nos indica el grado de conexi´on entre el nodo i y el nodo j. El peso Wij puede ser constante o dependiente del tiempo y puede ser positivo o negativo seg´ un corresponda a una conexi´on excitatoria o inhibitoria respectivamente. Se considera que el conocimiento se encuentra representado en los pesos sin´apticos y que los procesos de aprendizaje implican cambios en los pesos sin´apticos. Los modelos de redes neuronales que se obtienen, dependen de c´omo se relacionan las cantidades asignadas a cada nodo. El primer modelo que se construy´o fue el modelo de Mc Culloch-Pitts [80] que tiene las siguientes caracter´ısticas. 1. Wij constantes. n 1 , si P W y ≥ θ (la neurona “dispara”), θ umbral de la neurona i i ij i i 2. yi = fi (Ui ) = i=1
0,
en el otro caso .
En este caso se dice que el nodo o neurona artificial es binario, es decir est´a activado o est´a desactivado dependiendo de si la magnitud Si rebasa un umbral o no. En otros modelos lo que se construye es una ecuaci´on diferencial en Ui que describe la evoluci´on temporal de Ui : dUi = Gi (Ui , Si ), i = 1, 2, ..., n . dt Por ejemplo en el modelo de Hopfield [59], [60]: τi
dUi = −αi Ui + (Si + θi ) , dt 24
Si =
n X
Wij gj (Uj ) con g, una funci´on sigmoide .
j=1
En el modelo de Grossberg [43]:
τi
n X
dUi = −αUi + (γi − βi Ui ) Wij gi (Uj ) + θj . dt j=1
Cuando se quiere estudiar redes neuronales que aprendan, es decir que sean capaces de modificar sus pesos sin´apticos, se debe agregar un sistema de ecuaciones diferenciales que describan la evoluci´on temporal de los pesos sin´apticos. Las redes neuronales se forman con un conjunto de neuronas interconectadas. Dependiendo de c´omo se agrupan las neuronas, las redes se clasifican en: 1. Redes neuronales monocapa (1 capa). Una capa o nivel es un conjunto de neuronas cuyas entradas provienen de la misma fuente (que puede ser otra capa de neuronas) y cuyas salidas se dirigen al mismo destino. 2. Redes neuronales multicapa. Con respecto a las conexiones en la red, si ninguna salida de las neuronas es entrada de la misma capa o capas precedentes, se dice que la red es de propagaci´on hacia adelante. Cuando las salidas pueden ser conectadas como entradas de neuronas de niveles previos o del mismo nivel, incluy´endose ellas mismas adem´as de conexiones con neuronas de las capas posteriores, se dice que la red es de propagaci´on hacia atr´as. Con respecto al aprendizaje de las redes neuronales, modificaci´on de los pesos sin´apticos, las redes neuronales se pueden clasificar como: redes neuronales con aprendizaje supervisado y redes neuronales con aprendizaje no supervisado. En las primeras se precisa de un agente externo (supervisor) que controle el proceso de aprendizaje de la red, y que determina la respuesta de la red a partir de una entrada determinada, en las segundas la propia red controla su propio proceso de aprendizaje. En ambos tipos de redes se requiere conocer las reglas de aprendizaje –criterios que se siguen para modificar los pesos sin´apticos–. El aprendizaje 25
supervisado se puede llevar a cabo de tres maneras: aprendizaje por correcci´on de error, por esfuerzo y estoc´astico. En el aprendizaje no supervisado se puede llevar a cabo, entre otras maneras, el aprendizaje Hebbiano y el aprendizaje competitivo y cooperativo. Para mayor informaci´on sobre este tema recurrir a [11], [12], [31] y [55]. El primer modelo de red neuronal artificial, llamada Perceptron, fue desarrollado por Rosenblatt [98]. El Perceptron es una red neuronal con aprendizaje supervisado, con regla de aprendizaje de correcci´on de error, de propagaci´on hacia adelante que consiste de dos capas, una de entrada - que tiene n neuronas lineales - y la otra capa, que consta de una sola neurona, es la capa de salida. El Perceptron es capaz de decidir cu´ando una entrada presentada a la red pertenece a una de las dos clases que es capaz de reconocer. La u ´nica neurona de salida del Perceptron realiza la suma ponderada de las entradas, resta el umbral y pasa el resultado a una funci´on de transferencia de tipo escal´on. La regla de decisi´on es responder +1 si el patr´on presentado pertenece a la clase A, o −1 si patr´on pertenece a la clase B; A y B son las dos clase que el Perceptron es capaz de reconocer, previo entrenamiento. El Perceptron funciona cuando el conjunto de n−adas, cuyas componentes son las entradas a las n−neuronas de la capa de entrada, pueden ser separadas P por un hiperplano n−dimensional - el correspondiente a N i=1 Wi Xi − Θ = 0; donde Wi es el peso correspondiente a la entrada Xi y Θ el umbral. En general esto no siempre se puede hacer. Posteriormente se desarrolla el Perceptron multicapa [11], [31]. El Adaline y el Madaline son redes neuronales desarrolladas por Widrow y Hoff [118] en 1960. La arquitectura del Adaline y del Madaline son esencialmente la misma que la del Perceptron. Lo que cambia es la regla de aprendizaje ya que Adaline y Madaline usan la llamada regla delta de Widrow - Hoff o regla del m´ınimo error cuadrado (LMS), basada en la b´ usqueda de una expresi´on del error entre la salida deseada y la salida lineal obtenida antes de aplicarle la funci´on de activaci´on escal´on (a diferencia de la salida binaria utilizada en el caso del Perceptron). Sus principales aplicaciones est´an en el campo del procesamiento de se˜ nales. Tambi´en existen redes con aprendizaje supervisado del tipo estoc´astico, 26
la m´aquina de Boltzman [56], etc., del tipo aprendizaje con refuerzo, Linear Reward-Penalty o LR−P . Con respecto a las redes con aprendizaje no supervisado se tienen: la red de Hopfield, Learning Matrix, etc. que utilizan el aprendizaje Hebbiano (ajuste de los pesos de las conexiones de acuerdo con la correlaci´on de los valores de activaci´on de las dos neuronas conectadas). Para las que utilizan el aprendizaje competitivo - cooperativo (las neuronas compiten o cooperan unas con otras con el fin de llevar a cabo una tarea) ver [5], [7]. Para mayor informaci´on sobre la arquitectura, reglas de aprendizaje, aplicaci´on y limitaciones de las redes que hemos mencionado y a otras m´as recurrir a: [31], [55]. Cuando se intenta construir modelos de redes neuronales para el estudio del cerebro, los nodos de las redes se pueden interpretar como una sola neurona o como un grupo de neuronas. Matem´aticamente no existe ninguna distinci´on entre estos dos casos, pero si se desea construir redes neuronales que describan ciertos fen´omenos que ocurren en el cerebro y que los resultados se correlacionen con mediciones experimentales, la distinci´on s´ı es importante. Se ha detectado actividad r´ıtmica en algunas estructuras del cerebro: oscilaciones en el t´alamo, oscilaciones en el sistema bulbo olfativo, corteza, etc. Algunos modelos de redes neuronales se elaboran tomando en cuenta datos anat´omicos y fisiol´ogicos con la finalidad de describir estos fen´omenos temporales r´ıtmicos. Por ejemplo: Lopes da Silva [76], [77] elabora un modelo de red neuronal que intenta explicar los or´ıgenes del ritmo α en el perro con redes neuronales creadas con neuronas de la corteza y del t´alamo. Destexhe, Contreras, Sejnowski, y Steriade [24] elaboran un modelo de red neuronal para neuronas del n´ ucleo reticular tal´amico y obtienen resultados te´oricos de tipo oscilatorio con frecuencias de 7 a 14 Hz y otros en el rango de 0.5 - 1 Hz dependiendo de los par´ametros que se consideran.
27
Freeman [33], [34], [35], elabora un modelo que describe el modo en que la informaci´on sensorial puede ser procesada en un modo distribuido para una de las formas m´as simples de corteza. El modelo se elabora con base en estudios anat´omicos y fisiol´ogicos sobre las interconexiones neuronales entre el bulbo olfativo y la corteza en gatos y conejos e intenta relacionar los resultados te´oricos con datos electroencefalogr´aficos obtenidos en experimentos con estos animales. Menon [81], estudia el fen´omeno de las oscilaciones temporales en el cerebro, considerando que ´estas se deben a la interacci´on de neuronas inhibitorias y neuronas excitatorias. Elabora un modelo en el cual considera dos grupos de neuronas, una que tiene u ´nicamente conexiones inhibitorias y el otro grupo que tiene u ´nicamente conexiones excitatorias. Estudia la din´amica de estos dos grupos de neuronas interconectados elaborando un modelo de dos ecuaciones integro-diferenciales acopladas. Nu˜ nez comenta en [89], [92] que la mayor´ıa de los modelos de redes neuronales no surgen para estudiar las bases fisiol´ogicas de los EEG en el cuero cabelludo sino para estudiar algunas funciones cerebrales, como por ejemplo la memoria de corto plazo. Tambi´en menciona que si se quiere “explicar” por medio de redes neuronales los patrones r´ıtmicos temporales que se miden con electrodos en el cuero cabelludo (EEG), no basta que se construyan redes (a´ un basados en datos anat´omicos y fisiol´ogicos) que produzcan soluciones oscilatorias con la misma frecuencia que se obtienen en los EEG. Por lo tanto, es necesario considerar la estructura espacial de la red para considerar los potenciales correspondientes y compararlos con los que se obtienen en los EEG, ya que la magnitud de un potencial depende de la configuraci´on geom´etrica de sus fuentes. Nu˜ nez elabora un modelo de interacci´on neuronal en la corteza a la cual considera como un medio continuo, donde la columna de corteza es la unidad fundamental. El modelo consiste en un par de ecuaciones integrales acopladas que relacionan la actividad sin´aptica excitatoria e inhibitoria en una columna de corteza en un tiempo t con los potenciales de acci´on que se “disparan” en las otras columnas en tiempos anteriores, tomando en cuenta las conexiones que existen entre las columnas y las velocidades de propagaci´on de los potenciales de acci´on, ver [87], [88], [89] y [92].
28
Nu˜ nez elabora el modelo con la finalidad de estudiar las bases fisiol´ogicas de los patrones espacio temporales medidos con electrodos ubicados en el cuero cabelludo. Considera que para el estudio de estos patrones espaciotemporales la columna de corteza es la unidad a considerar, ya que los EEG se obtienen con electrodos que captan la actividad el´ectrica promedio de varios cent´ımetros cuadrados de corteza, adem´as de la homogenidad que ofrece la corteza a nivel de cada capa. En el siguiente cap´ıtulo analizaremos con m´as detalle este modelo.
29
1.8 MODELOS DE MEDIO CONDUCTOR En el funcionamiento del cerebro, la actividad el´ectrica es un elemento fundamental; la comunicaci´on entre las neuronas y entre estructuras del cerebro se realiza a trav´es de ella. Otro elemento fundamental en el funcionamiento del cerebro es la actividad neuroqu´ımica. Se conoce muy poco de c´omo interact´ uan ambos elementos en el funcionamiento del cerebro. La actividad el´ectrica del cerebro puede ser medida en muchas escalas espacio-temporales y con diversos grados de resoluci´on se puede medir la actividad el´ectrica de una sola neurona, de grupos de neuronas, y usando electrodos colocados en el cuero cabelludo, la del cerebro en su totalidad. Se conocen diversos patrones espacio-temporales de la actividad el´ectrica en distintos niveles, y se desea estudiar las bases fisiol´ogicas subyacentes a ellos. Se han usado diversos modelos: redes neuronales y sistemas cooperativoscompetitivos de interacci´on neuronal, para describir los posibles mecanismos que originan estos patrones espacio-temporales. Pero estos modelos, deben ir acompa˜ nados de otros modelos que toman en cuenta otras caracter´ısticas del cerebro como son las propiedades electromagn´eticas derivadas de la activaci´on de fuentes de corrientes impresas en el cerebro y por ello es necesario estudiar c´omo se propagan las corrientes el´ectricas a trav´es de los distintos tejidos del cerebro. No basta con determinar que ciertas redes neuronales correspondientes a ciertas estructuras del cerebro producen oscilaciones te´oricas que coinciden con las oscilaciones detectadas con los EEG medidos en diversas partes del cerebro. Los potenciales dependen de la distribuci´on de las fuentes y de las propiedades el´ectricas del medio en que ellos se propagan. En el estudio del cerebro, como medio conductor, una herramienta importante es la teor´ıa del campo electromagn´etico que en el nivel microsc´opico nos describe la relaci´on entre cargas, corrientes el´ectricas, campos el´ectricos y magn´eticos y en el nivel macrosc´opico debe incluir ciertas relaciones experimentales para la permitividad (para aislantes), la conductividad (para conductores) y la permeabilidad (para materiales magn´eticos). Pero nuevamente, si se quieren elaborar modelos cuyos resultados se puedan relacionar 30
con datos experimentales, es necesario determinar en qu´e escala espacio temporal se est´a trabajando. En cualquier escala espacio temporal que se use, las mediciones electroencefalogr´aficas se obtienen como promedio de la actividad el´ectrica de un cierto volumen de tejido y en cierto per´ıodo de tiempo y por tanto, las conductividades, las permitividades y las permeabilidades magn´eticas de los tejidos deben considerarse en la misma escala. Adem´as las variables de nuestro modelo deben estar en la misma escala espacio-temporal que la de las mediciones. El problema que se requiere estudiar es determinar la ubicaci´on y propiedades de las fuentes de corriente generadas por la actividad del cerebro a partir de las mediciones el´ectricas y magn´eticas efectuadas en el cuero cabelludo o en otras estructuras del cerebro. Este problema no tiene soluci´on u ´nica; en el sentido de que la misma medici´on de potencial o campo magn´etico puede ser generada por diferentes distribuciones de fuentes de corriente concentradas en la masa cerebral. El problema inverso no tiene soluci´on u ´nica, aunque se conozca la distribuci´on de potencial (o campo magn´etico) en todos los puntos del cuero cabelludo. Pero la situaci´on real es todav´ıa peor ya que las mediciones del potencial se obtienen u ´nicamente en un conjunto finito de puntos del cuero cabelludo donde est´an ubicados los electrodos. El problema es sumamente complejo ya que es necesario considerar la geometr´ıa y propiedades electromagn´eticas de las distintas regiones que intervienen –corteza, cr´aneo, cuero cabelludo, etc.– con el objetivo de relacionar los datos obtenidos en el cuero cabelludo con sus posibles fuentes. A´ un el problema directo, es decir, dada la distribuci´on de fuentes de corriente, la conductividad de los diversos tejidos y la permeabilidad magn´etica, determinar el campo electromagn´etico en cualquier punto, ya es bastante complejo. Usualmente lo que se hace, en ambos problemas, es introducir simplificaciones con base en informaci´on conocida sobre el cerebro y resolver el problema con esas simplificaciones. Estas simplificaci´ones dependen mucho de la escala en que se est´a trabajando. 31
La primera simplificaci´on importante que se introduce es el considerar que se puede aplicar al cerebro la teor´ıa electromagn´etica cuasi-est´atica [92]. Es conocido que en un medio conductor con conductividad σ las cargas se distribuyen muy r´apidamente, es decir, la densidad ρ de carga decrece como σ
ρ ∼ e− εo t , donde εo es la constante diel´ectrica. Para la conductividad del hueso 1 del orden de 200 y para la piel y la masa cerebral es mucho menor. Por este motivo se tiene que
σ εo
es
¯ ¯ ¯ ∂ρ ¯ σ − εσ t ¯ ¯ ¯ ¯∼ e o ¯ ∂t ¯ εo
y como se conoce experimentalmente que el intervalo de tiempo en que la densidad de corriente J~ en el cerebro var´ıa apreciablemente, es mucho mayor que εσo , entonces en la ecuaci´on de continuidad ∂ρ ∇ · J~ + =0 ∂t se puede despreciar
∂ρ ∂t
y queda ∇ · J~ = 0 .
Adem´as se considera que las corrientes que circulan en el cerebro son de dos tipos: Ohmicas, es decir, generadas por cargas en movimiento a trav´es del fluido extracelular y corrientes primarias o impresas, J~p , que se mueven a trav´es de las membranas celulares y aparecen en las zonas activas. Entonces se tiene ~, J~ = J~p − σ E ~ es el campo el´ectrico. donde E Del desacoplamiento entre el campo el´ectrico y magn´etico se tiene que ~ = 0 y, por lo tanto, E ~ = ∇u, donde u es el potencial del campo rot E electrost´atico.
32
De la ecuaci´on de continuidad simplificada se obtiene que en la masa del cerebro se cumple la ecuaci´on ∇u =
1 ∇ · J~p . σ
Si adem´as se considera un sistema de varias capas donde la regi´on Ω1 ocupada por el cerebro est´a cubierta por otras regiones disjuntas Ωi (i ≥ 2) que representan el fuido intracraneal, el cr´aneo, la piel, etc., entonces en cada frontera de separaci´on entre dos regiones Ωi y Ωi+1 , se deben satisfacer condiciones del tipo Ã
σi
∂u ∂ni
!−
Ã
= σi+1
∂u ∂ni
!+
+ f~i ,
u− = u+ , donde σi es la conductividad en cada Ωi , ni es el vector unitario normal exterior a Ωi en la parte com´ un de las fronteras de Ωi y Ωi+1 . El supra´ındice − o + indica que el valor l´ımite a la frontera de la cantidad indicada se toma desde Ωi o desde Ωi+1 respectivamente. Mediante f~i se denota la componente normal de la densidad de corriente superficial, la cual en este modelo puede estar presente u ´nicamente en la frontera del cerebro, es decir, en la corteza cerebral. Si se denota por Ωe la regi´on cuya frontera exterior Se coincide con el cuero cabelludo, entonces el problema u ´nico consiste en determinar J~p y f~1 a partir de las mediciones de u sobre Se . Este problema est´a mal planteado y por ello se necesita introducir algoritmos de regularizaci´on en su soluci´on. Una de las simplificaciones m´as importantes en el estudio del problema inverso consiste en representar f~1 y J~p en forma de un n´ umero finito de dipolos puntuales y, en este caso, el problema se reduce a la localizaci´on de sus posiciones y momentos, es decir, a encontrar 6N par´ametros donde N es el n´ umero de dipolos propuestos para la fuente activa [103].
33
1.9 CONCLUSIONES Como hemos podido ver, existe un gran n´ umero de t´ecnicas y m´etodos para determinar anomal´ıas de car´acter anat´omico o funcional en el cerebro, as´ı como para el estudio de los patrones temporales ritmicos de la actividad el´ectrica del mismo. Sin embargo, ninguno de estos m´etodos puede describir la interacci´on neuronal entre diferentes regiones del cerebro ni puede explicar el origen fisiol´ogico de los patrones temporales r´ıtmicos de la actividad el´ectrica. El objetivo de este trabajo es estudiar modelos que son una generalizaci´on de los introducidos por Paul Nu˜ nez en [89], [92] que, en conjunto con los modelos de medio conductor, permitan describir la evoluci´on temporal de la interacci´on neuronal masiva en la corteza cerebral y tambi´en dar alguna explicaci´on matem´aticamente fundamentada de los or´ıgenes fisiol´ogicos de los patrones temporales r´ıtmicos de la actividad el´ectrica. Esperamos adem´as que este tipo de trabajo sirva como fundamento para el desarrollo de software m´as apropiado para el an´alisis cl´ınico de los EEG.
34
Cap´ıtulo 2 ´ MODELACION GLOBAL DE LA ACTIVI´ DAD SINAPTICA DE LA CORTEZA CEREBRAL ´ 2.1 INTRODUCCION Para el estudio de las correlaciones existentes entre ciertos estados fisiol´ogicos y las mediciones electroencefalogr´aficas –a nivel de cuero cabelludo o de corteza– se han elaborado diversos modelos de interacci´on neuronal a nivel de corteza-t´alamo. Estos modelos se pueden dividir, grosso modo, en modelos locales, modelos globales y modelos mixtos. En los modelos locales [33], [34], [75], [76], [77], [95], se tratan de explicar las propiedades espacio-temporales de los EEG con base en propiedades a nivel de neurona, redes neuronales discretas o redes neuronales distribuidas en el rango de mil´ımetros; las propiedades temporales de los EEG son determinadas por los retrasos sin´apticos como son los tiempos de respuesta y de decrecimiento de los potenciales postsin´apticos. En los modelos globales [87], [88], [89], [90], [92], se toman como elemento importante los sistemas de fibras corticorticales (cuyas longitudes se encuentran en el rango de cent´ımetros) y el hecho de que la corteza es una estructura cerrada. En estos modelos se considera que el EEG medido sobre el cuero cabelludo es fundamentalmente el resultado de la interacci´on de neuronas corticales a trav´es de los potenciales de acci´on. Se considera que 35
ciertos patrones espacio-temporales de los EEG se pueden explicar tomando en cuenta los retrasos debido a la velocidad finita de propagaci´on de los potenciales de acci´on que viajan por las fibras corticorticales y por el hecho de que la corteza es una estructura cerrada. Nu˜ nez considera [92] que los modelos locales pueden ser importantes en ciertos estados fisiol´ogicos del cerebro y que en otros casos, como en aquellos que interviene un m´ınimo de actividad cognitiva (sue˜ no, coma, anestesia) se pueden explicar con los modelos globales; pero que dada la extrema complejidad de los interacciones neuronales se requieren modelos que toman en cuenta la interacci´on neuronal en las diversas escalas espacio-temporales [64], [65], [66], [67], [68]. En este cap´ıtulo analizaremos el modelo global elaborado por Nu˜ nez. Este modelo ser´a el punto de partida para la elaboraci´on de nuestro modelo. El modelo describe la evoluci´on de la actividad sin´aptica en la corteza y consiste en un par de ecuaciones integrales que relacionan la actividad sin´aptica en cada columna de corteza en un instante de tiempo t con los potenciales de acci´on que se generan en tiempos anteriores en las dem´as columnas de corteza, tomando en cuenta las conexiones que existen entre las columnas de corteza y las velocidades de propagaci´on de los potenciales de acci´on. Tambi´en se pueden tomar en cuenta los retrasos sin´apticos o incluir circuitos locales, convirti´endolo en un modelo local-global m´as completo. Con el modelo global, sin tomar en cuenta los retrasos locales, se estudia bajo qu´e condiciones se tienen soluciones de tipo ondulatorio y se comparan estas soluciones con los datos obtenidos a trav´es del EEG. Sus resultados te´oricos “coinciden” con los obtenidos experimentalmente para el ritmo α pero no incluye otros estados fisiol´ogicos. ´ ´ DE 2.2 BASES FISIOLOGICAS PARA LA MODELACION ´ LA ACTIVIDAD SINAPTICA EN LA CORTEZA CEREBRAL La corteza cerebral es un sistema muy complejo que presenta interacciones en distintos niveles: neurona, grupos de neuronas y entre grupos de neuronas. Aun as´ı la corteza presenta ciertas caracter´ısticas anat´omicas y fisiol´ogicas 36
que permiten elaborar modelos de interacci´on neuronal cuyas variables y par´ametros se pueden correlacionar con las medidas electroencefalogr´aficas obtenidas en el cuero cabelludo. El modelo que presentaremos toma como unidad fundamental la columna de corteza y pretende describir las interacciones entre las columnas de corteza, a trav´es de sus interconexiones y la interacci´on de la corteza con otras estructuras del cerebro (principalmente el t´alamo); m´as precisamente se describir´a la evoluci´on espacio-temporal de la actividad sin´aptica de las columnas de corteza. Los elementos del modelo son: a) h± (x, t) − La densidad de sinapsis activas o de actividad sin´aptica (+ para las sinapsis de tipo excitatorio, − para las de tipo inhibitorio), en la columna x en el tiempo t. h± (x, t) representa el n´ umero de sinapsis activas por cm3 en la columna x en el tiempo t (1/cm3 ) b) g(x0 , t) − La fracci´on del total de neuronas de la columna x0 que generan potenciales de acci´on en el tiempo t (adimensional) c) R± (x0 , x, v) − El n´ umero de conexiones sin´apticas por cm3 en la columna x por unidad de ´area en x0 y por unidad de velocidad, es decir, R± (x0 , x, v)dx0 dv representa el n´ umero de conexiones sin´apticas por cm3 en la columna x producidas por las neuronas que se encuentran en las columnas de x0 a x0 + dx0 y por cuyos axones los potenciales de acci´on “viajan” con velocidad entre v y v + dv (+ para las conexiones de tipo excitatorio, − para las de tipo inhibitorio). d) S± (x) − La densidad de sinapsis en la columna x (+, para las sinapsis excitatorias, − para las inhibitorias) (1/cm3 ). Se tiene que: Z ∞Z 0
S
R± (x0 , x, v)dx0 dv = S± (x) ,
donde S es la superficie de la corteza.
37
e) F± (v) − La fracci´on del total de neuronas de la corteza por unidad de velocidad (seg/cm), es decir, F± (v)dv representa la fracci´on del total de neuronas de la corteza que generan su potencial de acci´on con velocidad entre v y v + dv, (+ para las conexiones sin´apticas excitatorias, − para las inhibitorias). f ) h0± (x, t) − La densidad de sinapsis activas o de actividad sin´aptica ( + para las sinapsis de tipo excitatorio, − para las de tipo inhibitorio), en la columna x en el tiempo t. Actividad sin´aptica producida por los potenciales de acci´on que se generan en otras estructuras del cerebro, fundamentalmente el t´alamo y que “llegan” a la columna x en el tiempo t. h0± (x, t) representa el efecto producido en la columna x en el tiempo t por las estructuras internas del cerebro que tienen conexiones en la columna x. Con estas definiciones es f´acil ver que si S es la superficie de la corteza cerebral, entonces se tienen las ecuaciones:
h+ (x, t) =
ho+ (x, t)
h− (x, t) =
ho− (x, t)
+
+
Z ∞Z 0
Z ∞Z 0
d(x, x0 ) R+ (x , x, v)g(x , t − ) dx0 dv , v S
(2.1)
d(x, x0 ) ) dx0 dv , R− (x , x, v)g(x , t − v S
(2.2)
0
0
0
0
donde d(x, x0 ) es la distancia geod´esica entre dos puntos de la corteza S. Este sistema de ecuaciones integrales nos dice que la densidad de actividad sin´aptica tiene dos componentes. La primera de ellas es debida al “input” que reciben la corteza y las fibras corticorticales proveniente de estructuras interiores durante un estado fisiol´ogico fijo. La componente integral expresa la idea de que los potenciales de acci´on que se disparan en la columna x0 se trasladan a trav´es de las fibras corticorticales causando actividad sin´aptica en la columna x en un tiempo posterior que depende de la distancia que separa x de x0 y de la velocidad de propagaci´on de los potenciales de acci´on. 38
En general esta distancia no tiene que coincidir con la euclideana aunque puede ser considerada como tal para el an´alisis cualitativo. A continuaci´on enumeraremos las hip´otesis de trabajo y las principales consideraciones anat´omicas para el trabajo con este modelo. 1. No est´an considerados los retrasos debidos a la transmisi´on sin´aptica –retrasos locales– sino, u ´nicamente el debido a la velocidad finita de propagaci´on de los potenciales de acci´on a lo largo de los axones (fibras corticorticales). 2. En el modelo (2.1), (2.2) se desprecia la existencia de circuitos de retroalimentaci´on entre la corteza y el t´alamo ya que el n´ umero de fibras corticorticales es mucho mayor que las fibras talamocorticales. En efecto las primeras representan el 99% del total [72]. No resulta d´ıficil incluir en este modelo global la presencia de estos circuitos de retroalimentaci´on. Un ejemplo importante de estos circuitos es el circuito c´ortico-estriato-nigro-t´alamocortical asociado a la actividad motora. 3. Las neuronas corticales est´an colocadas en columnas que presentan una gran homogeneidad en su distribuci´on espacial con respecto a la profundidad. Esto quiere decir que es imposible distinguir entre dos cortes perpendiculares realizados en dos secciones diferentes de la corteza cerebral. Por este motivo podemos considerar que la corteza tiene una estructura estratificada uniforme compuesta por seis capas debido a las diferencias en las densidades relativas de diferentes tipos de neuronas localizadas a distintas profundidades corticales y que en una primera aproximaci´on las conexiones en el plano de la corteza son del mismo tipo en todas las direcciones y por ello s´olo dependen de la distancia entre las columnas consideradas es decir: R± (x0 , x, v) = R± (d(x, x0 ), v) .
(2.3)
Las neuronas corticales se pueden clasificar de acuerdo con la forma del cuerpo celular, por la longitud de su ax´on y por la extensi´on y distribuci´on espacial del ´arbol dendr´ıtico. Adem´as del tipo de transmisor
39
que libera, el blanco axonal, el tipo de sinapsis, etc. Para un estudio m´as detallado sobre esta tema recurrir a [82]. En primera aproximaci´on, las neuronas corticales las dividiremos en dos grandes tipos: excitatorias (neuronas piramidales y estrelladas espinosas) e inhibitorias (todas las interneuronas). Las interneuronas inhibitorias se dividen en varios tipos y se consideran que pueden tener varias escalas espacio–temporales. Pero en nuestro caso tomaremos que la inhibici´on ocurre r´apidamente. Las piramidales tienden a ocupar vol´ umenes cil´ındricos con axones y dendritas alineadas perpendicularmente a la superficie cortical y aproximadamente de 2/3 a 3/4 de las neuronas corticales son de este tipo. Las neuronas estrelladas ocupan volumenes m´as esf´ericos. El cuerpo celular de las neuronas ocupa alrededor de un 10% de la superficie neuronal. La mayor parte del ´area superficial de la neurona est´a compuesta por sus ramificaciones dendr´ıticas. El n´ umero de ramas dendr´ıticas que parten de una neurona y que intersectan a una superficie esf´erica conc´entrica, centrada en el cuerpo celular de la neurona, decrece exponencialmente seg´ un una ley del tipo: N´ umero de ramas ≈ exp(−λ· distancia radial) donde λ−1 (cm) es la escala caracter´ıstica de longitud que determina el decrecimiento en e−1 veces del n´ umero total de conexiones corticales a partir de una neurona. Por ejemplo, para las c´elulas estrelladas y las dendritas basales de las c´elulas piramidales en las cortezas visual y motora del gato y el rat´on se ha comprobado experimentalmente que λ = 350 cm−1 . La relaci´on para el decrecimiento de las ramas generadas a partir de una dendrita es de orden polinomial en lugar de exponencial. 4. Las interconexiones entre neuronas corticales pueden ser divididas en dos grandes grupos: las conexiones intracorticales que son de rango corto y que tienen una longitud promedio de menos de 1 mm en humanos y las conexiones corticorticales que tienen una longitud promedio de hasta varios cent´ımetros en humanos. La materia blanca subcortical est´a compuesta por las fibras de asociaci´on corticorticales que est´an ubicadas paralelamente a la superficie 40
cortical (Fig. #7). Mientras que las conexiones intracorticales pueden ser tanto excitatorias como inhibitorias, las fibras de asociaci´on (axones de las c´elulas piramidales) que constituyen la mayor parte de la materia blanca son solamente conexiones de tipo excitatorio. Las neuronas piramidales que env´ıan axones a otras regiones interiores del cerebro como el t´alamo, terminan u ´nicamente en sinapsis excitatorias. En las neuronas piramidales existen otro tipo de neuronas intracorticales que tambi´en terminan en sinapsis excitatorias. Sin embargo la cantidad de sinapsis excitatorias en humanos realizadas por las fibras de asociaci´on (corticorticales) es mucho mayor que las que son producidas por axones intracorticales, aproximadamente el 80% del total de las sinapsis excitatorias son por las fibras de asociaci´on. Aunque en ratones es del orden del 50%. Para mayor informaci´on sobre las fibras de asociaci´on se puede consultar [72]. 5. La mayor´ıa de las fibras de asociaci´on mielinadas tienen di´ametros entre 1 y 2 µ y en ellas las velocidades de los potenciales de acci´on son proporcionales al di´ametro y fluct´ uan entre 6 y 12 m/seg. 6. El ´area de la superficie total de ambas mitades del cerebro, las cuales est´an separadas por el cuerpo calloso es del orden de 1600 cm2 . Las 2/3 partes de esta superficie est´an en las fisuras incluyendo la fisura sagital que separa las dos mitades del cerebro. De estas dos terceras partes la mitad del ´area est´a contenida en las peque˜ nas fisuras incluyendo la fisura sagital. Esto nos dice que el ´area efectiva del medio donde se propagan las ondas es diferente de la superficie cortical. Un problema importante en los modelos globales del EEG consiste en saber cu´ando ambas mitades del cerebro deben ser consideradas por separado. La materia blanca est´a formada por fibras de aferentes y eferentes que van y vienen del interior del cerebro y la m´edula espinal, junto con fibras de asociaci´on que conectan diferentes ´areas corticales
41
y fibras comisurales que conectan las dos mitades del cerebro fundamentalmente a trav´es del cuerpo calloso. En humanos el n´ umero total de fibras comisurales que van de un hemisferio a otro del cerebro a trav´es del cuerpo calloso es del orden de 2 × 108 , la cual es significativamente menor que el n´ umero de fibras de asociaci´on que entran a la corteza, que es del orden de 1010 . Esto hace pensar que las fibras comisurales permiten una conexi´on muy d´ebil entre los dos hemisferios cerebrales, por lo cual parece ser que el an´alisis de los fen´omenos ondulatorios debidos a la actividad cerebral debe restringirse a un s´olo hemisferio que puede identificarse con la cuarta parte de un elipsoide de revoluci´on. El cerebro humano tiene 45cm de circunferencia (sin contar las fisuras) de la superficie: del polo occipital al polo frontal, a lo largo de la l´ınea media. Esta idea resulta consistente con los resultados experimentales obtenidos en pacientes a quienes se les ha medido la frecuencia del ritmo α con los dos hemisferios acoplados y con cuerpo calloso cortado. Si los dos hemisferios acoplados se comportaran como un sistema u ´nico se esperar´ıa que al efectuar el corte en el cuerpo calloso hubiera un significativo incremento de la frecuencia del ritmo α, lo cual no ocurre. 7. Los potenciales del EEG medidos en el cuero cabelludo se deben a una actividad sincr´onica de neuronas corticales que cubren un ´area de al menos varios cent´ımetros cuadrados de corteza. Por este motivo la medici´on del EEG corresponde a un nivel jer´arquico macrosc´opico de modelaci´on donde la homogeneidad e isotrop´ıa son dos consideraciones importantes. En cambio, del hecho que las conexiones corticorticales son inhom´ogeneas a niveles jer´arquicos peque˜ nos se concluye que los modelos de actividad medida con microelectrodos requiere la inclusi´on de par´ametros de conexi´on preferencial. Como las neuronas piramidales generan grandes momentos dipolares y est´an orientadas perpendicularmente a la superficie de la corteza, ellas son capaces de producir corrientes sincronizadas de suficiente magnitud para ser medidas sobre el cuero cabelludo. Debido a esto y a la superioridad num´erica de las neuronas piramidales junto con el hecho de que 42
son ellas las que producen la mayor parte de sinapsis excitatorias en la corteza a trav´es de sus axones (fibras corticorticales), es que son estas neuronas las principales responsables de la medici´on del EEG sobre el cuero cabelludo. De aqu´ı concluimos que para una primera modelaci´on de la contribuci´on global de la corteza al EEG se debe considerar la actividad sin´aptica excitatoria producida por las neuronas piramidales as´ı como la actividad sin´aptica inhibitoria producida sobre ellas por las neuronas estrelladas. Como mencionamos al inicio de este cap´ıtulo, en esta tesis nos dedicaremos al estudio de modelos te´oricos de la actividad global de la corteza cerebral que dan lugar al EEG. Estos modelos tienen en cuenta las consideraciones anat´omicas que hemos descrito en los puntos 1-7 anteriores. A diferencia de ellos, los modelos de circuitos locales deben incluir par´ametros de conexi´on preferenciales, en lugar de la homogeneidad que se considera en los modelos de actividad global, lo cual se pone de manifiesto en la selecci´on de las funciones R± (x0 , x, v) para cada v´ıa del circuito. Si los circuitos son peque˜ nos puede considerarse que la velocidad de propagaci´on v es infinita no siendo as´ı en los circuitos en que aparecen interacciones de largo alcance, en los cuales el tiempo que se demora al viajar un potencial de acci´on de un lugar a otro del circuito puede ser del orden de las constantes de tiempo de las neuronas piramidales. Por otra parte, como ya mencionamos en el punto 1, los modelos locales deben considerar los retrasos temporales debido a la transmisi´on sin´aptica, que son m´as peque˜ nos que los retrasos debidos a la velocidad finita de propagaci´on de los potenciales de acci´on a trav´es de los axones, y por ello no se consideran en los modelos globales.
43
´ Y SIMPLIFICACIONES EN EL 2.3 DESCRIPCION ´ MODELO GLOBAL DE ACTIVIDAD SINAPTICA EN UNA BANDA DE CORTEZA. Para evitar repeticiones innecesarias, en este cap´ıtulo el sub´ındice + siempre se referir´a a las sinapsis de tipo excitatorio y el sub´ındice − a las de tipo inhibitorio Aplicaremos el modelo general (2.1), (2.2) al estudio de la actividad del EEG producida por una banda infinitamente delgada de la corteza que por conveniencia, supondremos infinitamente larga. Para el an´alisis cualitativo obviaremos la geometr´ıa de la corteza y supondremos que la banda coincide con una recta. En este caso, que llamaremos el caso unidimensional, los elementos del modelo son los mismos, s´olo cambian las unidades con que se trabajar´a. As´ı, h± (x, t) representar´a el n´ umero de sinapsis activas por cm2 en la columna x en el tiempo t (1/cm2 ). R± (x0 , x, v) representar´a el n´ umero de sinapsis, por cm2 en la columna x en el tiempo t por unidad de longitud en x0 y por unidad de velocidad (seg/cm4 ). Es decir, R± (x0 , x, v)dx0 dv representar´a el n´ umero de sinapsis, por cm2 en la columna x en el tiempo t producidas por las neuronas que est´an ubicadas desde la columna x0 hasta la columna x0 +dx0 y por cuyos axones, los potenciales de acci´on “viajan” con velocidad entre v y v + dv, h0± (x, t) representar´a el n´ umero de sinapsis activas en la columna 2 x por cm , esta actividad sin´aptica es la producida por los potenciales de acci´on que se generan en estructuras internas del cerebro, principalmente el t´alamo y que llegan en el tiempo t a la columna x, g(x0 , t) seguir´a siendo una cantidad sin dimensiones. Todas las complicaciones del sistema de conexiones intracorticales e intercorticales est´an “escondidas” en la representaci´on de las funciones R+ y R− . Introduciremos algunas hip´otesis adicionales que nos permitir´an obtener una expresi´on para estas funciones que al menos cualitativamente reune las caracter´ısticas principales de este sistema de conexiones.
44
Hip´ otesis 1 Comenzaremos suponiendo que cada columna est´a constituida por una cantidad finita N (que no depende de la columna) de sistemas de fibras que se superponen. En primera aproximaci´on se podr´ıa considerar que N = 6 corresponde a la distribuci´on de las neuronas en las 6 capas en que usualmente se divide la corteza.
Hip´ otesis 2 Como las sinapsis inhibitorias se producen s´olo a nivel local, consideraremos que la densidad de actividad sin´aptica inhibitoria en una columna de corteza x en un tiempo t se produce por los potenciales de acci´on que se generan en las columnas “cercanas” a la columna x en tiempos “anteriores”, es decir, las columnas ubicadas fuera de una vecindad de la columna de corteza x no contribuyen a la actividad sin´aptica inhibitoria en la columna x. Es pertinente mencionar que Nu˜ nez enfoca esta cuesti´on de manera diferente: considera que la velocidad de propagaci´on de los potenciales de acci´on que “viajan” por las fibras que tienen conexi´on sin´aptica de tipo inhibitorio es “infinita”. Esta hip´otesis la justifica por el hecho de que la distancia que recorren los potenciales de acci´on por estas fibras es muy peque˜ na. Nosotros consideramos que esta hip´otesis no refleja que las sinapsis inhibitorias se producen s´olo a nivel local, lo que refleja es que el “efecto” de los potenciales de acci´on que “viajan” por las fibras que tienen conexi´on sin´aptica de tipo inhibitorio es “sentida” instant´aneamente en las columnas donde se tienen estas sinapsis inhibitorias. En realidad, para tener en cuenta el hecho de que las sinapsis inhibitorias se producen s´olo a nivel local, debemos considerar que los potenciales de acci´on que “viajan” por las fibras que tienen conexi´on sin´aptica de tipo inhibitorio, recorren esas distancias en tiempos m´as peque˜ nos que los usados por los potenciales de acci´on que “viajan” por las fibras de largo alcance. M´as adelante estudiaremos un modelo que tome en cuenta esta hip´otesis. Desde el punto de vista matem´atico, nuestra hip´otesis (el suponer que la actividad sin´aptica inhibitoria en una columna de corteza es afectada 45
u ´nicamente por los potenciales de acci´on que se generan en columnas cercanas) nos conducir´a a estudiar, en el caso l´ımite, un proceso global de propagaci´on de ondas de actividad sin´aptica inhibitoria modulada por un proceso local de propagaci´on de ondas de actividad sin´aptica inhibitoria; mientras que en el caso de Nu˜ nez, lo que se estudia es un proceso global de propagaci´on de ondas de actividad sin´aptica excitatoria acoplada con un proceso estacionario de actividad sin´aptica inhibitoria. De esta forma definiremos, para cada n = 1, ..., N : F±n (v) - La fracci´on del total de neuronas de la corteza por unidad de velocidad (seg/cm) cuyos potenciales “viajan” por las fibras del sistema n-´esimo. Es decir, F±n (v)dv representar´a la fracci´on del total de neuronas de la corteza cuyos potenciales “viajan” por las fibras del n-´esimo sistema con velocidad entre v y v + dv. Supondremos que esta cantidad no depende de en cu´al columna se ubiquen las neuronas. Ahora la funci´on R± (x0 , x, v) se puede representar en la forma R± (x0 , x, v) =
N X
n R± (x0 , x, v) .
(2.4)
n=1 n R± (x0 , x, v) (seg/cm2 ) representa la densidad de conexiones sin´apticas en la columna x por unidad de longitud en x0 y por unidad de velocidad ason ciadas con las fibras del n-´esimo sistema. As´ı R± (x0 , x, v)dx0 dv representar´a el n´ umero de sinapsis por cm2 en la columna x producidas por las neuronas que est´an ubicadas desde la columna x0 hasta la columna x0 + dx0 y cuyos potenciales de acci´on “viajan” por el n-´esimo sistema de fibras con velocidad entre v y v + dv. n Supondremos que R± se representa en la forma n n R± (x0 , x, v) = r± (x0 , x)F±n (v) ,
(2.5)
n (x0 , x) (1/cm3 ) ser´a la densidad de conexiones sin´apticas en la donde r± columna x, asociadas al n-´esimo sistema de fibras, por unidad de longitud en x0 , as´ı rn (x0 , x)dx0 representar´a el n´ umero de sinapsis por cm2 en la columna x producidas por neuronas que est´an ubicadas desde la columna x0 hasta la columna x0 + dx0 y cuyos axones est´an ubicados en el n-´esimo sistema de fibras.
46
n Ahora r± (x0 , x) se puede escribir como el producto de dos factores n r± (x0 , x) = tn± (x0 , x)S±n (x) ,
(2.6)
donde tn (x0 , x) (1/cm) representa el n´ umero de neuronas por unidad de longitud en x0 , cuyos axones establecen conexi´on sin´aptica en la columna x y dichos axones se encuentran en el n-´esimo sistema de fibras, S±n (x) representa la densidad de sinapsis (1/cm2 ) en la columna x, producida por neuronas cuyos axones se encuentran en el n-´esimo sistema de fibras. De (2.6) se tiene n que R± se puede escribir como el producto de tres factores n R± (x0 , x, v) = tn± (x0 , x)S±n (x)F±n (v) .
(2.7)
Ahora, haremos la siguiente suposici´on Hip´ otesis 3 La densidad de fibras representadas por la funci´on tn± y que conectan neuronas de la columna x0 con la columna x es igual a la densidad de fibras que conectan neuronas de la columna x con x0 . Esta hip´otesis es fundamental para la simplificaci´on del modelo (2.1), (2.2) y significa que tn± (x0 , x) = tn± (x, x0 ) .
(2.8)
Ya hemos comentado que la funci´on tn± (x0 , x) decrece exponencialmente con la distancia entre x0 , y x. Para que se cumpla la propiedad (2.8) supondremos adem´as que: Hip´ otesis 4 La funci´on tn± (x0 , x) depende u ´nicamente de la distancia entre los puntos x y x en la forma: 0
λn± −λn± |x0 −x| e , (2.9) 2 donde (λn± )−1 (cm) es la escala longitudinal que determina el decrecimiento de conexiones entre dos puntos de la corteza. tn± (x0 , x) =
47
De (2.4) a (2.9) obtenemos R± (x0 , x, v) =
N 1X n 0 S±n (x)λn± F±n (v)e−λ± |x −x| . 2 n=1
(2.10)
Hip´ otesis 5 En primera aproximaci´on supondremos que cada sistema de fibras est´a n caracterizado por una velocidad v± de propagaci´on de potenciales de acci´on. En este caso: n ). F±n (v) = δ(v − v±
(2.11)
N 1X 0 n −λn S±n (x)λn± δ(v − v± )e ± |x −x| . 2 n=1
(2.12)
Finalmente obtenemos R± (x0 , x, v) =
Pasemos ahora a imponer las restricciones que exigiremos a la funci´on g(x0 , t). Hip´ otesis 6 Los potenciales de acci´on que se generan en la columna x0 en el instante t dependen de la densidad de actividad sin´aptica - potenciales postsinapticos - y de la intensidad de la actividad neuroqu´ımica (concentraciones de neurotransmisores) que se realice en dicha columna en ese instante. En este trabajo s´olo consideraremos la dependencia de g con respecto a h+ y h− , es decir g(x0 , t) = G(h+ (x0 , t), h− (x0 , t)) ,
(2.13)
donde la funci´on G es suave y tiene un comportamiento sigmoidal cuya forma exacta es muy d´ıficil de predecir aunque esto no es importante para el an´alisis cualitativo que llevaremos a cabo posteriormente.
48
Es decir, la funci´on G(h+ , h− ) es creciente con respecto a h+ para cada h− fijo y decreciente con respecto a h− para cada h+ fijo. Adem´as existen curvas de nivel γ(h+ , h− ) = α, γ(h+ , h− ) = β ,
(2.14)
tales que 0,
si γ(h+ , h− ) < α ,
G(h+ , h− ) = 0 < G < 1 , si α < γ(h+ , h− ) < β , 1,
(2.15)
si γ(h+ , h− ) > β .
Para cada h− fijo (respectivamente h+ fijo) las funciones G(·, h− ) (resp. G(h+ , ·)) deben tener un comportamiento sigmoidal usual. M´as adelante propondremos una expresi´on expl´ıcita para las curvas de nivel (2.14). Las relaciones sigmoidales son muy frecuentes en los modelos del sistema nervioso. Por ejemplo, tambi´en existe una relaci´on de este tipo entre las concentraciones de neurotransmisores y las frecuencias de disparo de las neuronas o tambi´en la frecuencia de actividad sin´aptica. Todas las hip´otesis anteriores nos conducen a una simplificaci´on del modelo determinado por las ecuaciones (2.1) y (2.2) h+ (x, t) = ho+ (x, t) + 12
PN
n=1
S+n (x)λn+
R∞ −∞
n
0
e−λ+ |x −x| G(h+ (x0 , t −
|x0 −x| ), h− (x0 , t n v±
−
|x0 −x| ))dx0 vn ±
, (2.16)
h− (x, t) = ho− (x, t) + 12
PN
n=1
S−n (x)λn−
R x+² −λn |x0 −x| 0| |x0 −x| 0 − G(h+ (x0 , t − |x−x ), h (x , t − ))dx0 , n − x−² e v vn −
49
−
(2.17)
donde le par´ametro ² > 0 corresponde al car´acter local de la actividad inhibitoria. Sustituyendo (2.13) en (2.16) y (2.17) obtenemos h+ (x, t) = ho+ (x, t) +
1 2
R 0 −λn n ∞ n + |x −x| g(x0 , t n=1 S+ (x)λ+ −∞ e
PN
−
|x0 −x| )dx0 n v+
(2.18) ,
h− (x, t) = ho− (x, t) +
1 2
PN
n n n=1 S− (x)λ−
R x+² −λn |x0 −x| 0| − g(x0 , t − |x−x )dx0 . x−² e vn
(2.19)
−
En el sistema (2.18), (2.19), existen un conjunto de simplificaciones no mencionadas expl´ıcitamente con anterioridad. Consideramos que es importante explicar estas simplificaciones, ya que adem´as de provocarnos algunas confusiones, el considerarlas nos permitir´a la construcci´on de un modelo m´as detallado, el cual tambi´en consistir´a de un sistema de ecuaciones integrales. Este sistema se podr´a transformar en un sistema de ecuaciones diferenciales parciales de tipo hiperb´olico en donde podremos analizar con mayor detalle las distintas “fuerzas” que act´ uan en el medio cortical. Es pertinente mencionar que al intentar transformar el sistema (2.18), (2.19), en un sistema de ecuaciones diferenciales hiperb´olicas nos surgieron algunas complicaciones que no permitieron dicha transformaci´on. Algunas de las simplificaciones introducidas en el sistema (2.18), (2.19) y no mencionadas por Nu˜ nez son: No distingue por capas la densidad de actividad sin´aptica ni la generaci´on de los potenciales de acci´on; este hecho nos obliga a considerar que el efecto producido en la actividad sin´aptica en una columna x en un instante t, producido por los potenciales de acci´on que se generan en tiempos anteriores en las dem´as columnas, se distribuye de manera uniforme sobre cada capa de la columna x (en cada capa el efecto total se dividir´a por N , donde N es el n´ umero de capas). A nivel de columna tampoco distingue la contribuci´on de la actividad sin´aptica de cada capa en la columna x a la generaci´on de 50
los potenciales de acci´on en esa columna. Otro problema de estos modelos es que tampoco distinguen la actividad sin´aptica producida por neuronas de diferente clase. En la secci´on siguiente presentaremos otros modelos que subsanan algunas de estas simplificaciones. 2.4 ALGUNOS MODELOS ALTERNATIVOS AL MODELO ˜ DE NUNEZ En esta secci´on analizaremos algunos modelos alternativos al modelo de Nu˜ nez. Estos modelos subsanan algunas de las simplificaciones mencionadas en la secci´on anterior. Tambi´en analizaremos brevemente la relaci´on de estos modelos con el modelo de Nu˜ nez y las relaciones que tienen entre s´ı. 1. El modelo m´as general de capas ser´ıa considerar todas las interacciones que se pueden establecer entre todas las capas de cada par de columnas, as´ı obtendr´ıamos el sistema de 2N 2 ecuaciones integrales siguiente para un modelo de N capas. 0j hij ± (x, t) = h± (x, t)
+
R∞R∞ 0
ij 0 ij 0 −∞ R± (x , x, v)g (x , t −
|x−x0 | )dx0 dv vij
(2.20) ,
donde: hij aptica en la j-´esima capa de ± (x, t) − La densidad de actividad sin´ la columna x en el tiempo t producida por potenciales de acci´on que se generan en las otras columnas en tiempos anteriores y que viajan por el i-´esimo sistema de fibras, junto con la provocada por los potenciales de acci´on que se disparan en tiempos anteriores en estructuras interiores del cerebro. aptica en la j-´esima capa de h0j ± (x, t) − La densidad de actividad sin´ la columna x producida por potenciales de acci´on que se generan 51
en estructuras internas del cerebro y que tienen conexi´on sin´aptica con la capa j-´esima de la columna x. ij R± (x0 , x, v) − El n´ umero de conexiones sin´apticas/cm2 en la j-´esima capa de la columna x por unidad de longitud en la capa i-´esima de la columna x0 y por unidad de velocidad.
g ij (x0 , t) − La fracci´on del total de neuronas de la capa i-´esima de la columna x0 que generan potenciales de acci´on en el tiempo t y que tienen contacto sin´aptico con neuronas de la capa j-´esima de las otras columnas. Con respecto al modelo de Nu˜ nez se tienen las siguientes relaciones R± (x, t) =
N X N X
ij (x, t) , R±
(2.21)
i=1 j=1
gij (x, t) = αij (x)g(x, t) ,
h± (x, t) =
N X N X ij
h± (x, t) ,
(2.22)
(2.23)
i=1 j=1
donde αij (x) es un coeficiente entre 0 y 1 que indica la parte de g(x, t) que se disparan en la capa i-´esima de la columna x y que llegan a la capa j-´esima de las otras columnas. 2. Otra alternativa ser´ıa considerar hj± (x, t) = h0j ± (x, t) +
1 N
R∞R∞ 0
−∞
j R± (x0 , x, v)
donde: 52
PN
i=1
αij g i (x0 , t −
|x0 −x| )dx0 dv i v±
, (2.24)
hj± (x, t) − La densidad total de actividad sin´aptica en la j-´esima capa de la columna x en el tiempo t. g j (x0 , t) − La fracci´on del total de neuronas de la capa j-´esima de la columna x0 que generan potenciales de acci´on en el tiempo t. h0j aptica en la capa j-´esima de ± (x, t) − La densidad de actividad sin´ la columna x producida por potenciales de acci´on que se generan en tiempos anteriores en estructuras internas del cerebro. j R± umero de conexiones sin´apticas/cm2 en la columna (x0 , x, v) − El n´ x que llegan a la capa j-´esima de la columna x, por unidad de longitud en la columna x0 y por unidad de velocidad.
αij − Los pesos que corresponden a la contribuci´on de la capa i´esima de la columna x0 a la actividad sin´aptica en la capa j-´esima de la columna x. Obviamente 0 ≤ αij ≤ 1 y podr´ıa considerarse P αij = αij (x, x0 , t). Tambi´en se tiene que N j=1 αij ≤ 1. Con respecto al modelo 1 se est´a eliminando la contribuci´on particular de cada capa de la columna x0 a la actividad sin´aptica en la capa j-´esima de la columna x, adem´as de que se tiene un problema similar que en el sistema (2.18) (2.19) ya que no se distingue tampoco el efecto de g i (x0 , t) en cada capa de la columna x, asumiendo que se distribuye uniformemente sobre cada capa de x (la contribuci´on a la actividad 0 0 sin´aptica en la capa j-´esima de la columna x ser´ıa g (xN ,t) ). La ventaja que se tiene en este modelo es que g j (x0 , t) depende u ´nicamente de j j 0 0 h+ (x , t) y h− (x , t); es decir de la actividad sin´aptica en esa capa y no de la actividad sin´aptica en todas las capas de esa columna. Se puede considerar que se cumple la relaci´on h± (x, t) =
PN
i=1
βi (x)hi± (x, t) ,
donde βi (x) son ciertos pesos positivos tales que
PN
i=1
βi (x) = 1.
3. Tambi´en se puede considerar el siguiente sistema 53
(2.25)
¯ j± (x, t) = h0 (x, t) h ± +
R∞R∞ 0
j 0 j 0 −∞ R± (x , x, v)g (x , t
−
|x−x0 | )dx0 dv v
(2.26) ,
donde ¯ j± (x, t) − La densidad de actividad sin´aptica en la columna x en el h tiempo t producida por potenciales de acci´on que se generan en la capa j-´esima de las otras columnas en tiempos anteriores m´as la actividad sin´aptica en la columna x producida por potenciales de acci´on que se generan en tiempos anteriores en otras estructuras interiores del cerebro. En este caso no se distingue, como en el caso 2, la actividad sin´aptica en la columna por capas, sino por los potenciales de acci´on que provienen de cada capa en otras columnas. g¯j (x0 , t) − La fracci´on del total de neuronas de la columna x0 que generan potenciales de acci´on en el tiempo t y que viajan por las fibras del j-´esimo sistema. h0± (x, t) − La densidad de actividad sin´aptica en la columna x en el tiempo t producida por los potenciales de acci´on que se generan en tiempos anteriores en otras estructuras interiores del cerebro. j (x0 , x, v) − El n´ R± umero de conexiones sin´apticas por cm2 en la columna x por unidad de longitud en la capa j-´esima de la columna x0 y por unidad de velocidad.
El problema que se presenta en este modelo es que g¯j (x, t) depende de toda la actividad sin´aptica que ocurre en la columna x, es decir de ¯ N (x, t)(x, t). ¯ 1 (x, t), . . . , h h ± ± Estos tres modelos y el modelo de Nu˜ nez son las posibilidades m´as importantes que se pueden encontrar en un modelo de N capas. Estos 4 modelos est´an relacionados. El modelo 1 es el modelo m´as detallado de los cuatro, pero es el que incluye m´as ecuaciones y par´ametros que nos dificultar´ıan el 54
estudio del mismo. Estos modelos est´an relacionados entre s´ı de la siguiente manera: En el modelo 2 se est´a considerando la densidad de actividad sin´aptica por capas en cada columna pero sin distinguir la contribuci´on a esta actividad de las distintas capas de las otras columnas, adem´as tampoco se distingue el efecto de una capa de una columna (g j (x, t)) sobre cada capa de las otras columnas, se considera que el efecto (g j (x, t)) se distribuye de manera uniforme sobre las capas de cada columna afectada. La relaci´on entre el modelo 2 y el 1 se da a trav´es de considerar que Ã
g ij
|x − x0 | x0 , t − vij
!
Ã
= αij g i
|x − x0 | x0 , t − vi
!
,
(2.27)
i.e. el efecto de la i-´esima capa de la columna x sobre la j-´esima capa de las columnas afectadas es independiente de la capa que afecta y se distribuye de manera “uniforme” sobre cada capa. Tambi´en se cumple que N X 1 i 0 ij R± (x , x, v) = (x0 , x, v) R± N j=1
(2.28)
y por u ´ltimo hi± (x, t) =
N X ij
h± (x, t) .
(2.29)
hi± (x, t) ,
(2.30)
j=1
En el modelo 3 se tiene obviamente que
h± (x, t) =
N X i=1
donde h+ (x, t) es la densidad total de actividad sin´aptica que aparece en el modelo de Nu˜ nez. N´otese, adem´as que g j (x0 , t) = g¯j (x0 , t), pero g j s´olo j ¯ i , h− se tiene que g¯j ; depende de h+ y h− con respecto a las variables h + N 1 ¯ . Con m´as exactitud ¯ ,...,h depende de h ± ± ¯ j (h+ , h− ) = G ¯j g¯ = G j
ÃN X i=1
55
¯ i , h− h +
N X i=1
!
¯i h −
(2.31)
y como el modelo de Nu˜ nez se relaciona con el modelo 2 a trav´es de h± (x, t) =
N X j
h± (x, t) ,
(2.32)
j=1
g j (x, t) =
g(x, t) . N
(2.33)
Entonces tambi´en el modelo (2.18) (2.19) se relaciona con el modelo 1. El modelo que eligiremos para estudiar ser´a el modelo 3 ya que es un poco m´as detallado que el de Nu˜ nez y resulta un modelo con menos ecuaciones y par´ametros que los otros dos modelos restantes. En la siguiente secci´on desarrollaremos el modelo 3. 2.5 DESARROLLO Y ESTUDIO DE UN MODELO DE LA ´ ACTIVIDAD SINAPTICA DE LA CORTEZA CEREBRAL En esta secci´on desarrollaremos el modelo 3, que como mencionamos en la secci´on anterior es un poco m´as preciso que el del sistema (2.18), (2.19), adem´as este sistema se puede transformar en un sistema de ecuaciones diferenciales parciales. El modelo tiene tambi´en una conexi´on muy clara en el sistema (2.18), (2.19). En este modelo distinguiremos la contribuci´on de cada capa de cada columna a la actividad sin´aptica de una columna de corteza dada en un instante de tiempo y lo que estudiaremos es la evoluci´on espaciotemporal de esa actividad sin´aptica tomando en cuenta la distribuci´on de conexiones sin´apticas, las velocidades de propagaci´on de los potenciales de acci´on de las neuronas de la capa correspondiente. Para ser m´as precisos introduciremos los elementos de que consiste el modelo. Sean: ¯ j± (x, t) − La densidad de actividad sin´aptica (potenciales postsin´apticos) h en la columna x en el tiempo t, n´ umero de sinapsis activas/cm2 , producida por potenciales de acci´on que se generan en las otras columnas y que viajan por las fibras del sistema j-´esimo, m´as la actividad sin´aptica 56
en la columna x producida por potenciales de acci´on que se generan en tiempos anteriores en otras estructuras interiores del cerebro. g¯j (x, t) − La fracci´on del total de neuronas de la columna x0 que generan potenciales de acci´on en el tiempo t y que viajan por las fibras del j-´esimo sistema. ¯ 0 (x, t) − La densidad de actividad sin´aptica en la columna x en el tiempo h ± t producida por los potenciales de acci´on que se generan en estructuras interiores del cerebro en tiempos anteriores y que tienen conexi´on sin´aptica en la columna x. j R± (x0 , x, v) − El n´ umero de conexiones sin´apticas/cm2 , del j-´esimo sistema en la columna x por unidad de longitud en x0 y por unidad de velocidad.
¯ j± (x, t), g¯j (x, t) y h± (x, t), g(x, t) es la siguiente La relaci´on entre h N X ¯j
h± (x, t) .
h± (x, t) =
(2.34)
j=1
La misma idea que se us´o para obtener la ecuaci´on (2.18) se puede aplicar ¯ j± (x, t). As´ı que para para obtener un sistema de ecuaciones integrales para h j = 1, . . . , N ¯ 0 (x, t) ¯ j+ (x, t) = h h + +
R ∞ −λj |x−x0 | j 0 1 j j e + g¯ (x , t λ S (x) −∞ 2 + +
−
|x0 −x| )dx0 j v+
(2.35) .
¯ j− (x, t) se tiene Para h ¯ j− (x, t) = h ¯ 0 (x, t) + 1 S−j (x)λj− h − 2
Z x+² x−²
j
0
e−λ− |x−x | g¯j (x0 , t −
57
|x − x0 | )dx0 . (2.36) j v−
Ahora, sabemos que los potenciales de acci´on que se generan en cada capa de cada columna (¯ g j (x, t)) dependen de la actividad sin´aptica que existe en esa columna (no depende u ´nicamente de la actividad sin´aptica en esa capa ¯ j± (x, t)) y de la actividad neuroqu´ımica en la por la forma en que se defini´o h misma columna. En este trabajo s´olo consideraremos la dependencia de g¯j (x, t) con res¯ j± (x, t), j = 1, . . . , N ) es decir consideraremos pecto a (h N X
¯j ( g¯j (x, t) = G
¯ i (x, t), h +
N X
hi− (x, t)) .
(2.37)
i=1
i=1
La forma exacta de esta dependencia es d´ıficil de predecir, pero cualitativamente consideramos que debe ser de tipo sigmoide en cada variable. As´ı ¯ i (x, t), i 6= k y h ¯ j− (x, t) fijo debemos para cada k = 1, . . . , N y para cada h + ¯ 1 , ..., h ¯ k−1 , h ¯ k , . . . , hN , h ¯1 , . . . , h ¯ N ) es una funci´on creciente de ¯ j (h tener que G + + + + − − tipo sigmoide. ¯1 , . . . , h ¯ N fijo debemos tener que Para cada 1 ≤ k ≤ N y para cada h + + ¯1 , . . . , h ¯ N , ·) es una funci´on decreciente de tipo sigmoide. ¯ j (h G + + Adem´as existen curvas de nivel ¯ 1 , ..., h ¯ j+ , . . . , hN , h− ) = βj , (2.38) ¯ 1 , ..., h ¯ j+ , . . . , hN , h− ) = αj y γj (h γj (h + + + + tales que
¯ N , h− ) = ¯1 , h ¯ j+ . . . h ¯ j (h G + +
0,
¯1 , h ¯ N , h− ) < αj , ¯ j+ . . . h si γj (h + +
¯j < 1 , 0
¯1 , h ¯ N , h − ) < βj , ¯ j+ . . . h si αj < γj (h + +
1,
¯ j+ . . . h ¯ N , h− ) > βj . ¯1 , h si γj (h + + (2.39)
M´as adelante propondremos una expresi´on expl´ıcita para las curvas de nivel (2.38). Con estas condiciones el sistema (2.35), (2.36) se transforma en 58
¯ 0 (x, t) ¯ j+ (x, t) = h h + + 12 λj+ S+j (x)
R∞ −∞
j
0 PN ¯ i |x0 −x| PN 0 )dx0 , ), i=1 hi− (x0 , t − |xv−x| i j i=1 h+ (x , t −
¯j ( e−λ+ |x −x| G 0
v+
+
(2.40)
¯ j− (x, t) = h ¯ 0 (x, t) h − + 12 λj− S−j (x)
R x+² −λj |x0 −x| j PN PN ¯ i |x0 −x| 0 ¯ i (x0 , t − |x0 −x| ¯ ( i=1 h − G ), h (x , t − )dx0 ) . j i i=1 − + x−² e v− v −
(2.41)
Como ya hemos mencionado anteriormente consideramos m´as adecuado para el an´alisis del modelo, transformar el sistema (2.35), (2.36) en un sistema ¯ j− (x, t). Esto u ¯ j+ (x, t), h ´ltimo lo de ecuaciones diferenciales parciales para h haremos en la siguiente secci´on.
59
´ DEL SISTEMA DE ECUACIONES 2.6 TRANSFORMACION INTEGRALES EN UN SISTEMA DE ECUACIONES DIFERENCIALES PARCIALES Usando la regla de Leibnitz para derivar bajo el signo de la integral, ¯j ∂2h
¯j ∂h
¯j ∂h
¯j ∂2h
podemos obtener ∂x± , ∂x2± , ∂t± , ∂t2± , no escribiremos estas derivadas ya que adem´as de constar de muchos t´erminos, no son necesarias para los siguientes desarrollos. Escribiremos solamente el sistema de ecuaciones diferenciales ¯ j+ como para h ¯ j− . parciales resultante, tanto para h ¯ j+ se obtiene Para h ¯j ∂2h + ∂t2
j + 2λj+ v+
· j 2 ) (v+
¯j ∂2h + ∂x2
¯j ∂h + ∂t
j 2¯j + (λj+ v+ ) h+ =
j 0 ¯j ) (x) ∂ h 2(S+ + j ∂x S (x)
−
µ
j 00 j j 0 ) (x) (x)(S+ ) (x))2 −S+ 2((S+
+
j 2 (S+ ) (x)
+
h
¶
j j j j g¯ (x, t) + S+ (x) λj+ v+ +λj+ v+
i
∂¯ gj (x, t) ∂t
¯ j+ h
¸
(2.42)
+ F+j (x, t) .
¯ j− se obtiene Para h ¯j ∂2h − ∂t2
j + 2λj− v−
· j 2 ) (v−
¯j ∂2h − ∂x2
−
¯j ∂h − ∂t
j 2¯j ) h− = + (λj− v−
j 0 ¯j ) (x) ∂ h 2(S− − j ∂x S (x)
µ
j 00 j j 0 ) (x) (x)(S− ) (x))2 −S− 2((S−
+
j 2 (S− ) (x)
−
h
j j j j g¯ (x, t) + S− (x) λj+ v− +λj− v−
i
∂¯ gj (x, t) ∂t
¶
¯ j− h
¸
(2.43)
+ F−j (x, t) + F j (x, t, ²) ,
donde ·
F+j (x, t)
=
¯0 ∂2h + ∂t2
−
j 2 (v+ )
+ ·
¯ j ∂h + 2λj+ v+ ∂t
¯0 ∂2h + ∂x2
0
−
+
j 2¯0 (λj+ v+ ) h+
j 0 ¯0 2(S+ ) (x) ∂ h + j ∂x S (x) +
60
µ
+
¸
j 0 j j 00 2((S+ ) (x))2 −S+ (x)(S+ ) (x) j 2 (S+ ) (x)
¶
¸
¯0 , h + (2.44)
·
F−j (x, t) =
¯0 ∂2h − ∂t2
−
j 2 (v− )
j + 2λj− v−
·
¯0 ∂2h − ∂x2
−
¯0 ∂h − ∂t
j 2¯0 + (λj− v− ) h−
j 0 ¯0 2(S− ) (x) ∂ h − j ∂x S (x)
µ
+
¸
j 0 j j 00 2((S− ) (x))2 −S− (x)(S− ) (x) j 2 (S− ) (x)
−
·
j
j j j j −λ− ² j F j (x, t, ²) = − 21 λj− v− S− (x) v− λ− e g¯ (x − ², t − j
j
g + e−λ− ² ∂¯ (x − ², t − ∂t
² j ) v−
j
j −λ− ² j g¯ (x + ², t − e + λj− v−
+
j gj e−λ− ² ∂¯ (x ∂t
+ ², t −
² j ) v−
j
¶
¸
¯0 , h − (2.45)
² j ) v−
j
j −λ− ² ∂¯ g − v− e (x − ², t − ∂x
² j ) v−
² j ) v−
+
j v−
j gj e−λ− ² ∂¯ (x ∂x
¸
+ ², t −
² j ) v−
.
(2.46) Con la finalidad de presentar concisamente y m´as adecuadamente para nuestros c´alculos el sistema (2.42), (2.43), definiremos 4N operadores diferenciales parciales, actuando sobre las funciones de dos variables con derivadas parciales hasta de segundo orden continuas. Denotaremos estos operadores an definidos como sigue con los s´ımbolos Li,j ± , 1 ≤ i ≤ 2, 1 ≤ j ≤ N y estar´ L1,j ± [u] = ·
L2,j ± [u]
=
j 2 ) (v±
∂2u ∂x2
−
∂2u ∂t2
j ∂u + 2λj± v± + (λ± v± )2 u , ∂t
j 0 2(S± ) (x) ∂u j S (x) ∂x ±
µ
+
j 0 j j 00 2((S± ) (x))2 −S± (x)(S± ) (x) j 2 (S± ) (x)
(2.47) ¶ ¸
u ,
(2.48) donde u = u(x, t) es una funci´on con derivadas parciales hasta de segundo orden continuas.
61
Con esta nueva notaci´on, el sistema (2.42), (2.43) se convierte en el sistema 2,j ¯ j ¯j L1,j + [h+ ] = L+ [h+ ] h
j j j j + λj+ v+ S+ (x) λj+ v+ g¯ (x, t) +
i
∂¯ gj (x, t) ∂t
(2.49)
+ F+j (x, t) , 2,j ¯ j ¯j L1,j − [h− ] = L− [h− ]
h
j j j j + λj− v− S− (x) λj− v− g¯ (x, t) +
i
∂¯ gj (x, t) ∂t
(2.50)
+ F−j (x, t) + F (x, t, ²) . Para reducir el sistema a un sistema equivalente m´as sencillo de estudiar haremos uso de los siguientes resultados los cuales son muy f´aciles de probar ¯j Lema 1 Sean Li,j ± los operadores diferenciales definidos en (2.48) y sean L± los operadores diferenciales parciales definidos por ¯ j± [u] = L
∂2u ∂t2
2
j ∂ u j ∂u j 2 ) u − v± + 2λj± v± + (λj± v± . ∂t ∂x2
(2.51)
Entonces ¯ j± [¯ uj± ] = L
1
j S± (x)
h
i
2,j j j L1,j ± [u± ] − L± [u± ] ,
(2.52)
donde u¯j± (x, t) =
uj± (x, t) . S±j (x)
¯ j± como en el Lema 1, entonces Lema 2 Sea L j
j
j
j
¯ j+ [uj+ ] = ∂+2,j [¯ eλ+ v+ t L uj+ ] , ¯ j− [uj− ] = ∂−2,j [¯ eλ− v− t L uj− ] , 62
(2.53) (2.54)
donde j
j
u¯j± (x, t) = eλ± v± t uj± (x, t) y ∂+2,j [u] =
2 ∂ 2u j 2∂ u − (v ) , + ∂t2 ∂x2
(2.55)
∂−2,j [u] =
2 ∂ 2u j 2∂ u − (v ) . − ∂t2 ∂x2
(2.56)
Aplicando el Lema 1 al sistema (2.49), (2.50) ese sistema es equivalente al sistema "
¯ j+ [H+j ] L
"
¯ j− [H−j ] L
#
∂¯ gj 1 j j j g¯ (x, t) + λj+ v+ = j F+j (x, t) + λj+ v+ (x, t) , ∂t S+ (x)
(2.57)
#
∂¯ gj 1 1 j j j g¯ (x, t) + λj− v− = j F−j (x, t)+λj− v− , (x, t) +F j (x, t, ²) j ∂t S− (x) S− (x) (2.58)
donde
H+j (x, t)
¯ j± (x, t) h = j S± (x)
y aplicando el Lema 2 al sistema (2.57), (2.58), este sistema es equivalente a "
¯ +j ] ∂+2,j [H
j λj+ v+ t
=e
"
¯ −j ] ∂−2,j [H
j λj− v− t
=e
##
"
F+j (x, t) ∂¯ gj j j j j j (x, t) + λ v λ v g ¯ (x, t) + + + + + ∂t S+j (x) #
"
,
(2.59) #
F j (x, t, ²) ∂¯ gj F−j (x, t) j j j j j (x, t) + + λ , v λ v g ¯ (x, t) + − − − − ∂t S−j (x) S−j (x) (2.60) 63
donde ¯ ±j (x, t) = eλj± v±j t H±j (x, t) . H El sistema (2.57), (2.58) es un sistema de 4N ecuaciones diferenciales par¯ i PN hi ), ¯ j (PN h ciales no lineales acopladas (recordemos que g¯j (x, t) = G i=1 + , i=1 − ¯ j es que sea una funci´on donde lo u ´nico que le hemos pedido hasta ahora a G ¯ i ), adem´as, la ecuaci´on (2.59) desigmoide de cada una de las variables h ± pende de un peque˜ no par´ametro ² > 0. Este sistema es sumamente complejo de estudiar, as´ı que para hacer m´as tratable el sistema, estudiaremos primero el caso N = 1, esto significa que se tiene u ´nicamente una sola capa en cada columna. En este caso el sistema a estudiar es "
#
g ¯ + [H+ ] = 1 F+ (x, t) + λ+ v+ λ+ v+ g¯(x, t) + ∂¯ L (x, t) , S+ (x) ∂t "
¯ − [H− ] = L
(2.61)
#
1 ∂¯ g 1 F− (x, t) + λ− v− λ− v− g¯(x, t) + (x, t) + F (x, t, ²) . S− (x) ∂t S− (x) (2.62)
Es decir, tenemos dos ecuaciones diferenciales parciales con la ecuaci´on (2.62) dependiendo de un par´ametro peque˜ no ² > 0, la funci´on g¯ depende ¯ ± , de manera sigmoide en cada una de ellas u ´nicamente de h ¯ + , h− ) . g¯(x, t) = G(h
(2.63)
En la siguiente secci´on estudiaremos el sistema (2.61), (2.62) usando t´ecnicas de par´ametro peque˜ no, es decir, estudiaremos primeramente el sistema degenerado, − el sistema (2.61), (2.62) con ² = 0 − , para despu´es, con base en este estudio, obtener informaci´on sobre el sistema no degenerado. ¯ que depender´a de una sola Adem´as introduciremos una expresi´on para G, ¯ ¯ − , a esta nueva variable variable, la cual es una combinaci´on lineal de h+ , y h la llamaremos variable de activaci´on, ya que el hecho de que se generen o no potenciales de acci´on en una columna dependen de esta nueva variable.
64
´ DE ACTIVACION ´ PARA LA CORTEZA 2.7 LA ECUACION CEREBRAL Sabemos que g¯(x, t) depende de una manera muy compleja de la actividad ¯ + , y de la actividad sin´aptica inhibitoria h ¯ − , i.e. g¯(x, t) sin´aptica excitatoria h ¯ ¯ ¯ − ) debe ser ¯ ¯ es igual a G(h+ , h− ), cualitativamente consideramos que G(., h ¯ + , para cada h ¯ − fijo y que debe ser una una funci´on sigmoide creciente de h ¯ − para cada h ¯ + fijo. Este planteamiento funci´on sigmoide decreciente de h es sumamente general y dif´ıcil de estudiar, as´ı que estudiaremos un caso ¯+ y h ¯ − . El caso que particular de la dependencia de g¯ con respecto a h estudiaremos est´a basado en lo siguiente: 1. Si V± representa el valor del potencial postsin´aptico en una sinapsis, ¯ ± (x, t) representar´a la densidad de potencial postsin´aptico entonces V± h en la columna x en el tiempo t. 2. Habr´a activaci´on en la columna x (generaci´on de potenciales de acci´on) cuando V+ H+ (x, t) − V− H− (x, t) ≥ V0 , donde V0 es un cierto umbral promediado de disparo de la columna x, en caso contrario no habr´a activaci´on. 3. Si V+ H+ (x, t) − V− H− (x, t) es muy grande, habr´a saturaci´on de la columna x en el tiempo t y entonces, no aumentar´a significativamente la actividad de la columna en ese tiempo. Basados en estos tres puntos consideramos que: ¯ + H+ (x, t) − V− H− (x, t)) , g¯(x, t) = G(V
(2.64)
¯ es una funci´on sigmoide de una sola variable. G ¯ es una funci´on donde G sigmoide de la densidad de potencial postsin´aptico de la columna. En realidad, como veremos despu´es, se pueden elegir varias expresiones ¯ cuantitativas para G. Llamaremos a la variable u(x, t) = V+ H+ (x, t) − V− H− (x, t) variable de activaci´on de la columna x.
65
La din´amica espacio-temporal de u(x, t) nos permitir´a estudiar las zonas de la corteza que est´an activas en un tiempo determinado. Para cada t, las zonas activas de la corteza estar´an caracterizadas por el conjunto E(t) = {x en la corteza|u(x, t) ≥ V0 } . Para obtener la ecuaci´on diferencial parcial que determina la din´amica ¯ + [H+ ] = de la variable de activaci´on u(x, t) multiplicamos la ecuaci´on L ∂¯ g 1 ¯ + [H− ] F (x, t) + λ+ v+ [λ+ v+ g¯(x, t) + ∂t (x, t)] por V+ y le restamos V− L S+ (x) + en ambos lados de la ecuaci´on, as´ı se obtiene "
¯ + [u] = V+ λ+ v+ L
#
∂¯ g F+ (x, t) ¯ + [H− ] . (2.65) λ+ v+ g¯(x, t) + (x, t) +V+ −V− L ∂t S+ (x)
Adem´as tenemos la ecuaci´on para las inhibiciones "
#
g F− (x, t) F (x, t, ²) ¯ − [H− ] = λ− v− λ− v− g¯(x, t) + ∂¯ L (x, t) + + . ∂t S− (x) S− (x)
(2.66)
Como mencionamos en la secci´on anterior, primeramente estudiaremos el caso degenerado (² = 0) del sistema (2.65), (2.66) "
¯ + [u] = V+ λ+ v+ L
#
∂¯ g F+ (x, t) ¯ + [H− ] . (2.67) λ+ v+ g¯(x, t) + (x, t) +V+ −V− L ∂t S+ (x)
Adem´as tenemos la ecuaci´on para las inhibiciones ¯ − [H− ] = F− (x, t) . L S− (x)
(2.68)
Usando el lema 2, se puede reducir el sistema (2.67), (2.68) al estudio del sistema equivalente "
¯ + [u] = V+ λ+ v+ L
#
∂¯ g ∂u F+ (x, t) ¯ + [H− ] , (2.69) λ+ v+ g¯(u) + (u) + V+ − V− L ∂u ∂t S+ (x)
66
¯ − ) = e−λ− v− t F− (x, t) , ∂−2 (H S− (x)
(2.70)
donde ¯ H(x, t) = eλ− v− t H− (x, t) . ¯ ∂ 2 y calculando L ¯ + [e−λ− v− t H ¯ − (x, t)] y reUtilizando la definici´on de L, − ordenando los t´erminos, obtenemos el sistema ∂2u ∂t2
h
2
2 ∂ u + 2λ+ v+ ∂u + (λ+ v+ )2 u − v+ = V+ λ+ v+ λ+ v+ g¯(u) + g¯0 (u) ∂u ∂t ∂x2 ∂t
·
−V− e−λ− v− t (1 − + S+V+(x) F+ (x, t) +
2 ¯− v+ ∂2H 2 ) ∂t2 v−
¯
i
− ¯− + 2(λ+ v+ − λ− v− ) ∂ H + (λ+ v+ − λ− v− )2 H ∂t
1 F− (x,t) −λ− v− t 2 S (x) e v− −
¸
, (2.71)
2 ¯ ¯− ∂2H e−λ− v− t 2 ∂ H− = v + F− (x, t) . − ∂t2 ∂x2 S− (x)
(2.72)
N´otese que la ecuaci´on (2.72) es independiente de g¯, as´ı que este sistema se puede interpretar como un proceso global de propagaci´on de ondas de la variable de activaci´on, modulado por un proceso de propagaci´on de ondas de las inhibiciones.
67
´ DE UN MODELO 2.8 CONSTRUCCION ´ DE LA COMPARTIMENTADO DE ACTIVACION CORTEZA CEREBRAL. En el modelo que hemos analizado en las secciones anteriores –con las diversas formas propuestas para la distribuci´on de conexiones– se eliminan los efectos producidos en cada columna por columnas lejanas a ella. La eliminaci´on de los “efectos lejanos”, se debe a la elecci´on de una distribuci´on de conexiones que decrece exponencialmente con las distancias entre columnas con la misma escala de decrecimiento, en todas las direcciones sobre la corteza. Una manera de tomar en cuenta estos “efectos lejanos”, es considerar a la corteza cerebral dividida en n compartimentos disjuntos interconectados, considerando la distribuci´on de conexiones para cada par de compartimentos de decrecimiento exponencial, pero con una escala de decrecimiento que depende del par de compartimentos considerados. As´ı, “los efectos” producidos en una columna de cierto compartimento estar´an clasificados dependiendo de los compartimentos con que interact´ ua. En nuestro modelo consideramos que las velocidades de propagaci´on de los potenciales de acci´on no dependen de los compartimentos que se est´an considerando. La divisi´on de la corteza en n compartimentos, adem´as de ser una mejor aproximaci´on de la corteza real que la propuesta en las secciones anteriores, nos permite correlacionar nuestros resultados te´oricos con las mediciones reales de actividad cortical. Adem´as nos permitir´a estudiar el diagrama de conexiones funcional que se establece en un estado fisiol´ogico dado. Se podr´ıa estudiar, tambi´en la interrelaci´on que existe entre las distintas ´areas de la corteza, siguiendo la divisi´on propuesta por el anatomista K. Brodmann (Fig. # 9). A continuaci´on describiremos m´as detalladamente este modelo. Como ya hemos mencionado, en el presente modelo consideramos a la corteza cerebral dividida en n compartimentos ajenos Ωi , i = 1, . . . , n. Por simplicidad y siguiendo las ideas de las secciones anteriores, consideraremos una banda de corteza en la cual, las ondas que se propagan por ella, tienen longitud de onda muy peque˜ na con respecto a la longitud de la misma. Con estas simplificaciones puede pensarse en la corteza como una recta dividida en n intervalos disjuntos, identificando los dos intervalos infinitos como uno solo (considerando que los “efectos ” de los dos intervalos infinitos provocan 68
el mismo efecto sobre los otros intervalos). Lo que deseamos es relacionar la densidad de actividad sin´aptica – excitatoria e inhibitoria – en una columna de corteza con los potenciales de acci´on que se generan en las otras columnas en tiempos anteriores, pero como tenemos dividida a la corteza en n compartimentos, aumentar´a el n´ umero de ecuaciones a considerar. A continuaci´on procederemos a definir las variables y par´ametros que intervienen en el modelo, deduciremos las ecuaciones en forma integral y al igual que en las secciones anteriores transformaremos ´estas en un sistema de ecuaciones diferenciales parciales. Como en las secciones anteriores, el sub´ındice + se referir´a a las sinapsis excitatorias y el − a las sinapsis inhibitorias. Sean : a) hij aptica por ± (x, t) − La densidad de sinapsis activas o de actividad sin´ cm2 en la columna x ∈ Ωj , en el tiempo t, producidos por los potenciales de acci´on que se generan en el compartimento Ωi en tiempos anteriores hij ± (x, t) representa el efecto de Ωi en la columna x ∈ Ωj en el instante t (1/cm2 ). b) f±j (x, t) − La densidad de sinapsis activas por cm2 en la columna x ∈ Ωj en el instante t, producidas por los potenciales de acci´on que se generan en tiempos “anteriores” en las estructuras internas del cerebro, principalmente el t´alamo, y que tienen conexi´on sin´aptica con la columna x ∈ Ωj . Supondremos que f−j (x, t) ≡ 0 para cada j. c) hj± (x, t) =
n X ij
h± (x, t) + f±j (x, t) .
(2.73)
i=1
Representar´a la densidad de actividad sin´aptica total en la columna x ∈ Ωj en el instante t, producida por los potenciales de acci´on generados en todas las regiones de la corteza y las estructuras internas del cerebro, principalmente el t´alamo. ij d) R± umero de conexiones sin´apticas por cm2 en la columna (x0 , x, v) − El n´ x ∈ Ωj por unidad de longitud en x0 ∈ Ωi y por unidad de velocidad, es ij decir, R± (x0 , x, v)dx0 dv representa el n´ umero de conexiones sin´apticas
69
por cm2 en la columna x ∈ Ωj que provienen de las neuronas que est´an ubicadas desde la columna x0 hasta la columna x0 + dx0 y por cuyos axones los potenciales de acci´on “viajan” con velocidad entre v y v + dv. e) g(x, t) − La fracci´on del total de neuronas en la columna x que generan potenciales de acci´on en el instante t. f ) g j (x, t) − La fracci´on del total de neuronas en la columna x ∈ Ωj que generan potenciales de acci´on en el tiempo t. Obviamente g(x, t) = g j (x, t) para x ∈ Ωj .
(2.74)
Lo que queremos conocer es la evoluci´on espacio-temporal de la densidad de actividad sin´aptica total en cada columna de cada compartimento de la corteza (hij ± (x, t), x ∈ Ωj , j = 1, . . . , n). Para lograr esto, primero obtendremos la evoluci´on espacio-temporal de la densidad de actividad sin´aptica en cada columna de un compartimento dado de la corteza producida por la interacci´on con otro compartimento de la misma (hij ± (x, t), x ∈ Ωj , i, j = 1, . . . , n) y le a˜ nadiremos la producida por las estructuras internas del cerebro (f+j (x, t), j = 1, . . . , n). Consideraremos que por cada par de compartimentos Ωi , Ωj se cumplen las siguientes hip´otesis : 1. Existe una u ´nica velocidad de propagaci´on, v± , de los potenciales de acci´on que viajan de Ωi a Ωj y que no depende de Ωi ni de Ωj . ij (x0 , x, v)) depende u ´nicamente de la dis2. La densidad de conexiones (R± tancia entre las columnas y tienen su decrecimiento exponencial, con olo depende de las regiones cada escala de decrecimiento (λij ± ) que s´ Ωi , Ωj .
R± (x0 , x, v) =
n X
ij R± (x0 , x, v),
i=1
donde
70
x ∈ Ωj ,
(2.75)
ij R± (x0 , x, v)
=
ij ij 0 −λ |x−x0 | Sj (x)δ(v − v± ) , α± (x )e ±
0,
si x ∈ Ωj , x0 ∈ Ωi en otro caso (2.76)
0
R± (x , x, v) representar´a el n´ umero de conexiones sin´apticas por cm2 en x, por unidad de longitud en x0 y por unidad de velocidad. Sj (x) es la ij densidad de conexiones sin´apticas en x ∈ Ωj (1/cm2 ) y α± (x0 ) (1/cm) es un factor de normalizaci´on, sujeto a la condici´on n Z X i=1 R
ij
0
ij α± (x0 )e−λ± |x−x | dx0 = 1, para cada x ∈ Ωj .
(2.77)
En lo que sigue, identificaremos Ωi (i = 1, . . . , n) con el conjunto de ij ij ij , (x0 ) = α± (x0 ) constante; α± los n´ umeros reales y si suponemos α± entonces de (2.77) obtenemos : 2
ij n X α± i=1
λij ±
= 1.
(2.78)
Debido al car´acter local de las inhibiciones, podemos suponer que ij = 0 si i 6= j. α−
As´ı, en lo que sigue consideraremos que : ij = α+
λij λjj + jj = − . , α− 2n 2
(2.79)
3. Los potenciales de acci´on que se generan en la columna x ∈ Ωj en el instante t, dependen de la actividad sin´aptica total en x ∈ Ωi en el instante t y de la densidad de la actividad neuroqu´ımica (concentraci´on de neurotransmisores) que se realice en dicha columna en ese instante. Nosotros s´olo consideraremos la dependencia de g i con respecto a la actividad total en la columna x en el instante t. Adem´as, de la suposici´on de que la actividad inhibitoria en la corteza s´olo tiene un car´acter local, se concluye que hki − (x, t) ≡ 0 si k 6= i. 71
Finalmente como las conexiones aferentes a la corteza son s´olo excitatorias, tenemos que f−j (x, t) ≡ 0 y as´ı obtenemos g i (x, t) = g i (
n X
i ii hki + (x, t) + f+ (x, t), h− (x, t)) .
(2.80)
k=1
Siguiendo el mismo razonamiento expuesto en las secciones anteriores, tenemos que :
hij − (x, t)
Z ∞ jj λij |x − x0 | 0 + e−λ+ |x−x | g(x0 , t − )dx0 , = Sj (x) 2n v+ −∞
hjj − (x, t) =
Z x+² jj λjj |x − x0 | 0 − Sj (x) )dx0 , e−λ+ |x−x | g(x0 , t − 2 v− x−²
(2.81)
(2.82)
donde el par´ametro ² > 0 corresponde a la localidad de la actividad inhibitoria. De nuevo, debido al car´acter local del proceso inhibitorio, consideraremos que hij − (x, t) ≡ 0 si i 6= j. Introduciendo las nuevas funciones inc´ognitas H+ij (x, t)
nhij (x, t) hjj + (x, t) jj = , H− (x, t) = − Sj (x) Sj (x)
(2.83)
2 y realizando el mismo proceso de aplicar el operador ∂ 2 a cada lado de ∂x (2.81), (2.82) y despu´es pasar al l´ımite cuando ² → 0, se obtiene, debido a (2.74) 2 ij ∂H+ij ∂ 2 H+ij ij ij ij 2 2 2 ∂ H+ v ) v H − v + 2λ + (λ + + + + + + ∂t2 ∂t ∂x2
"
=
λij + v+
#
ij λij + v+ g (x, t)
∂g ij (x, t) , + ∂t
x ∈ Ωj ,
2 jj ∂ 2 H−jj ∂H−jj jj jj 2 2 jj 2 ∂ H− + 2λ− v− + (λ− ) v− H− − v− = 0, ∂t2 ∂t ∂x2
72
x ∈ Ωj ,
(2.84)
(2.85)
donde g ij (x, t) es la fracci´on del total de neuronas que generan potenciales de acci´on en x ∈ Ωj debido a las sinapsis que provienen de neuronas en Ωi . En lo que sigue supondremos que g ij (x, t) = µij (x)g j (x, t) ,
(2.86)
donde g j (x, t) est´a definida en (2.74) y 0 ≤ µij (x) ≤ 1 es tal que n X
µi,j (x) = 1, para toda x ∈ Ωj .
i=1
Las funciones µij (x); i, j = 1, . . . , n determinan el diagrama de conexi´on funcional en la corteza, correspondiente a un estado fisiol´ogico, caracterizado por una funci´on de activaci´on de neuronas g j (x, t) para cada compartimento Ωj ; j = 1, . . . , n. El hecho de que µij (x) pueda ser diferente de µkj para i 6= k nos permite considerar una distribuci´on no hom´ogenea de activaci´on en x ∈ Ωj correspondiente a los compartimentos Ωk y Ωi que no pod´ıamos considerar en el modelo estudiado en las secciones anteriores. Sea V± el valor absoluto del potencial postsin´aptico producido por una sinapsis (+ excitatoria, − inhibitoria). Introduciremos las nuevas variables h
uij (x, t) =
V+ (n − 1) H+ij (x, t) +
f j (x,t) Sj (x)
i
− V− H−jj (x, t)
(V+ + V− )
,
(2.87)
i, j = 1, . . . , n , que llamaremos variable de activaci´on parcial en x ∈ Ωj , en el instante t, provocada por la acci´on de Ωi sobre Ωj . De (2.84), (2.85), (2.86), (2.87) se obtiene el siguiente sistema de ecuaciones para las variables de activaci´on : 2 ∂ 2 uij ∂uij ij ij 2 2 ∂ uij v v ) u − v + 2λ + (λ = + + ij + + + ∂t2 ∂t ∂x2
"
λij ∂g j + v+ V+ (n − 1) ij j µij (x) λ+ v+ g (x, t) + (x, t) (V+ + V− ) ∂t
#
+ Fij (x, t) − Iij (x, t), x ∈ Ωj ; i, j = 1, . . . , n , 73
(2.88)
donde
³
´
j
2 f (x,t) ∂ V+ (n − 1) ∂ Sj (x) ij Fij (x, t) = v + 2λ + + (V+ + V− ) ∂t2
2 2 +(λij + ) v+
j
f (x, t) 2 − v+ Sj (x)
∂2
³
f j (x,t) Sj (x) ∂x2
³
f j (x,t) Sj (x)
´
∂t
´ ,
"
(2.89)
#
2 jj V− ∂ 2 H−ij ∂H−ij ij ij 2 jj 2 ∂ H− Iij (x, t) = + 2λ . v + (λ v ) H − v + + + + − + V+ + V− ∂t2 ∂t ∂x2 (2.90) N´otese que, en (2.90), H−jj (x, t) s´olo depende de las condiciones iniciales de inhibici´on, debido a que satisface la ecuaci´on (2.85). Teniendo en cuenta (2.80) podemos suponer que en (2.88) se tiene
g j (x, t) = gj (uj ) , donde uj (x, t) =
n X
(2.91)
uij (x, t)
i=1
es la llamada variable de activaci´on total en x ∈ Ωj . De à ! n X f j (x, t) ij 0≤ ≤ 1, para cada x ∈ Ωj H+ (x, t) + Sj (x) i=1 y 0 ≤ H−jj (x, t) ≤ 1, para cada x ∈ Ωj , se tiene que −1 ≤ uj (x, t) ≤ 1, para cada x ∈ Ωj . Entonces de (2.91) y el comportamiento cualitativo que, a partir del conocimiento fisiol´ogico, debe tener la funci´on de activaci´on gj , podemos suponer que gj (uj ) es una funci´on creciente continuamente diferenciable de la variable uj , definida en todo R y tal que
74
gj =
0,
creciente , 1,
si uj ≤ −1 , si − 1 ≤ uj ≤ 1 , si uj ≥ 1 .
(2.92)
Para tener m´as arbitrariedad en la selecci´on de gj , podemos suponer que es una funci´on sigmoide de la variable uj que est´a muy cercana al valor 0 en uj = −1 y muy cercana al valor 1 en uj = 1. Haremos ahora la suposici´on de que las conexiones excitatorias entre compartimentos diferentes son pocas en comparaci´on con las que hay dentro de cada compartimento, es decir, λjj + ¿ 1, si i 6= j; i, j = 1, . . . , n . λij +
(2.93)
Entonces, si ponemos λjj λjj + v+ + = βj , = ², jj λ− v− λij +
i 6= j
(2.94)
y pasamos a las nuevas coordenadas jj λjj + v+ t = τ, λ+ x = y
(2.95)
en (2.88) para todo i, j = 1, . . . , n, obtenemos un sistema con par´ametro peque˜ no ² para las variables de activaci´on parcial en coordenadas adimensionales ²2
2 ∂ 2 u˜ij ∂ u˜ij ˜ij 2∂ u + 2² + u ˜ − ² = ij 2 ∂τ ∂τ ∂y 2
"
#
V+ (n − 1) ∂˜ gj µ ˜ij (y) g˜j (y, τ ) + ² (y, τ ) + (V+ + V− ) ∂τ (2.96)
+
h i 1 ˜ij (y, τ ) − I˜ij (y, τ ) ; F 2 (λij + v+ )
75
1 y ∈ Ωj , i, j = 1, . . . , n, λjj +
i 6= j ,
donde u˜ij (y, τ ) = uij (x, t), µ ˜ij (y) = µij (x), g˜j (y, τ ) = g j (x, t), F˜ij (y, τ ) = Fij (x, τ ), I˜ij (y, τ ) = Iij (x, t). Adem´as se tiene ∂ 2 u˜jj ∂ u˜jj ∂ 2 u˜jj + 2 + u ˜ − = jj ∂τ 2 ∂τ ∂y 2 "
#
V+ (n − 1) ∂˜ g µ ˜jj (y) g˜j (y, τ ) + (y, τ ) + (V+ + V− ) ∂τ (2.97) i h 1 ˜jj (y, τ ) − I˜jj (y, τ ) , 1 y ∈ Ωj . F (λ+ v+ )2 λjj +
De (2.91) tenemos que g˜j (y, τ ) = g˜j (˜ uj ) , donde u˜j (y, τ ) =
n X
u˜ij (y, τ )
i=1
es la variable de activaci´on total de la regi´on Ωj en coordenadas adimensionales. 76
En lo que sigue consideraremos que las variables de activaci´on se obtienen en forma de promedios espaciales en cada compartimento Ωj , es decir u˜ij (y, τ ) = u˜ij (τ ), u˜ij (y) = u˜ij , g˜j (y, τ ) = g˜j (τ ), F˜ij (y, τ ) = F˜ij (τ ) , I˜ij (y, τ ) = I˜ij (τ ) . De esta forma, el sistema (2.96), (2.97) se reduce al sistema ²2 "
d2 u˜ij d˜ uij + 2² + u˜ij = dτ 2 dτ #
i h d˜ gj 1 V+ (n − 1) j ˜ij (τ ) − I˜ij (τ ) , g˜ (τ ) + ² F µ ˜ij (τ ) + ij (V+ + V− ) dτ (λ+ v+ )2
i, j = 1, . . . , n,
(2.98)
i 6= j ,
"
#
∂˜ gj d2 u˜jj d˜ ujj V+ (n − 1) j g ˜ (τ ) + + 2 + u ˜ = µ ˜ (τ ) jj ij dτ 2 dτ (V+ + V− ) ∂τ
(2.99)
+
i h 1 ˜jj (τ ) − I˜jj (τ ) . F 2 (λjj + v+ )
Por simplicidad supondremos que la entrada aferente Fij (τ ) a la regi´on Ωj proveniente de estructuras internas del cerebro es peque˜ na, es decir : ˜ F˜ij (τ ) = (λjj + v+ )Gij (τ ), i 6= j , ˜ ij (τ ) est´a acotada. donde G 77
(2.100)
Por otra parte, de (2.90) se tiene que "
#
2 ˜ jj ˜ −jj (τ ) 1 V− dH 2 d H− (τ ) ˜ij (τ ) = I ² + 2² + H−jj (τ ) , (2.101) 2 2 (V + V ) dτ dτ (λij v ) + − + +
˜ −jj (τ ) = H−jj (τ ) es, seg´ donde H un (2.85), soluci´on de la ecuaci´on 2 ˜ jj 2 d H− βj 2
˜ −jj dH ˜ −jj = 0 , + 2βj +H dτ dτ donde βj viene definido en (2.94). De (2.102) se tiene que
(2.102)
˜ −jj (τ ) = (aτ + b)e−τ /βj , H donde a y b son par´ametros que dependen de las condiciones iniciales de inhibici´on. Finalmente, la ecuaci´on (2.98) se transforma en ²2
d2 u˜ij d˜ uij + 2² + u˜ij = 2 dτ dτ #
"
V+ (n − 1) d˜ gj ˜ ij (τ ) µ ˜ij g˜j (τ ) + ² (τ ) + ²2 G (V+ + V− ) dτ −
(2.103)
V− ˜ jj (τ ) para cada i, j = 1, . . . , n, i 6= j . H (V+ + V− ) −
En la aproximaci´on de orden cero, para valores de τ no cercanos a 0, la soluci´on u˜0ij (τ ) de (2.103) satisface la ecuaci´on u˜0ij =
V+ (n − 1) V− ˜ −jj (τ ), i, j = 1, . . . , n, i 6= j , µ ˜ij g˜j (˜ u0j ) − H (V+ + V− ) (V+ + V− ) (2.104)
donde u˜0j (τ ) =
n X i=1
78
u˜0ij (τ ),
de (2.104) se concluye que
u˜0j =
n X
u˜0ij (τ ) =
i=1
n X V+ (n − 1) (n − 1)V− ˜ jj µ ˜ij + u˜0jj − g˜j (˜ u0j ) H− (τ ) , (V+ + V− ) (V + V ) + − i=1,i6=j (2.105)
de donde se tiene : u˜0j =
V+ (n − 1) (n − 1)V− ˜ jj (1 − µ ˜jj )˜ g (˜ u0j ) − u˜0jj + H (τ ) . (V+ + V− ) (V+ + V− ) −
(2.106)
Si suponemos que gj es una funci´on sigmoide con un solo punto de inflexi´on, entonces la ecuaci´on (2.106) admite una soluci´on u ´nica u0j , para 0 cualquier u˜jj , si se cumple la condici´on V+ (n − 1) 0 (1 − µ ˜jj )˜ gj (u) < 1, para cada j = 1, . . . , n . (V+ + V− )
(2.107)
En este caso, aplicando al sistema (2.99), (2.103) los resultados de la teor´ıa de perturbaciones singulares para sistemas con par´ametro peque˜ no y de la ecuaci´on (2.106), tendremos que para cualquier compacto contenido en {τ > 0} la aproximaci´on de orden cero de la variable de activaci´on total, satisface la ecuaci´on d˜ u0j d2 u˜0j +2 + u˜0j = 2 dτ dτ "
#
d˜ u0 V+ (n − 1) 0 µ ˜jj g˜j (˜ u0j ) + g˜j (˜ u0j ) j + (V+ + V− ) dτ #
"
d˜ gj 0 V+ (n − 1) d2 g˜j 0 u0j ) (1 − µ ˜jj ) (˜ uj ) + 2 (˜ u ) + g˜j (˜ 2 (V+ + V− ) dτ dτ j "
˜ −jj ˜ −jj dH (n − 1)V− d2 H ˜ −jj + 2 +H − (V+ + V− ) dτ 2 dτ 79
#
+
1 2 (λjj + v+ )
h
i
F˜jj (τ ) − I˜jj (τ ) .
˜ −jj y que Teniendo en cuenta la expresi´on de H 1 V− I˜jj (τ ) = jj 2 (V+ + V− ) (λ+ v+ ) =
Ã
˜ −jj ˜ jj d2 H dH ˜ −jj +2 − +H dτ dτ
!
V− e−τ /βj (βj − 1) [2aβj + (βj − 1)(aτ + b)] . (V+ + V− )βj2
Obtenemos finalmente la ecuaci´on "
#
d2 u˜0j V+ (n − 1) 0 (1 − µ ˜jj )gj (˜ u0j ) + 1− (V+ + V− ) dτ 2
"
#
d˜ u0j V+ (n − 1) 0 2− (2 − µ ˜jj )gj (˜ u0j ) + (V+ + V− ) dτ Ã
d˜ u0j V+ (n − 1) 00 − (1 − µ ˜jj )gj (˜ u0j ) (V+ + V− ) dτ u˜0j 1
˜
−
+
(2.108)
#
"
Fjj (τ ) 2 (λjj + v+ )
!2
V+ (n − 1) g˜j (˜ u0j ) = − (V+ + V− )
nV− (βj − 1)e−τ /βj [2aβj + (βj − 1)(aτ + b)] , (V+ + V− )βj2
donde el primer sumando del miembro derecho est´a asociado a la entrada aferente a la regi´on Ωj proveniente de estructuras interiores del cerebro y el segundo sumando corresponde al control inhibitorio en Ωj . La ecuaci´on (2.108) describe, en la aproximaci´on de orden cero con respecto a las potencias de ², la evoluci´on temporal de la variable de activaci´on total en cada compartimento Ωj . 80
N´otese que el coeficiente (1 − µ ˜jj ) corresponde a la contribuci´on de los compartimentos Ωj con i 6= j a la activaci´on de Ωj . N´otese adem´as que bajo las suposiciones efectuadas se obtienen ecuaciones desacopladas para la variable de activaci´on total en cada Ωj , aunque como se˜ nalamos en el p´arrafo anterior el efecto de los restantes compartimentos est´a encerrado en el coeficiente (1 − µ ˜jj ). Finalmente hemos obtenido el teorema siguiente. Teorema 1 Supongamos que la corteza cerebral est´a dividida en n compartimentos mutuamente ajenos Ωj , j = 1, . . . , n y que se cumplen las siguientes hip´otesis: 1. La funci´on de distribuci´on de densidad de conexiones entre dos localizaciones de la corteza est´a descrita por (2.75), (2.76), (2.79). 2. La funci´on que describe la fracci´ on del total de neuronas en una localizaci´ on determinada que generan potenciales de acci´ on debido a las sinapsis que provienen de neuronas ubicadas en otros compartimentos viene dada por las expresiones (2.86), (2.91) y (2.92). 3. Las conexiones excitatorias entre compartimentos diferentes son pocos en comparaci´ on con los que hay dentro de cada compartimento, seg´ un se expresa en (2.93). 4. Las entradas sin´apticas aferentes a la corteza son peque˜ nas en el sentido de (2.100). 5. Entonces para la aproximaci´ on de orden cero de los promedios espaciales en cada Ωj de la variable de activaci´on total u0j (τ )
=
n X
u0ij (τ )
(ver 2.87),
i=1
se tiene la ecuaci´ on (2.108), si se cumple la condici´ on (2.107).
81
Cap´ıtulo 3 ´ ´ ANALISIS MATEMATICO DEL MODELO ´ DE ACTIVACION DE LA CORTEZA CEREBRAL. ´ 3.1 UN MODELO MATEMATICO PARA UNA REBANADA DE CORTEZA CEREBRAL Un problema importante en fisiolog´ıa es determinar bajo qu´e est´ımulos externos se puede lograr que una peque˜ na rebanada de corteza cerebral oscile en frecuencias determinadas de antemano. Con el modelo que hemos obtenido es posible estudiar este problema. Como estar´ıamos considerando u ´nicamente una peque˜ na rebanada de corteza cerebral, lo que tendr´ıamos que hacer en nuestro modelo, es considerar que no se tiene variaci´on espacial; en este caso, nuestro modelo ser´ıa un sistema de dos ecuaciones diferenciales ordinarias no lineales. Lo que nos proponemos estudiar, es las condiciones que debe cumplir el est´ımulo externo para que nuestro sistema de ecuaciones tenga soluciones peri´odicas. As´ı que, el sistema de ecuaciones diferenciales ordinarias a estudiar es
82
d2 u dt2
h
+ 2λ+ v+ du + (λ+ v+ )2 u = V+ λ+ v+ λ+ v+ g¯(u) + g¯0 (u) du dt dt ·
−V− e−λ− v− t (1 −
2 ¯− v+ d2 H ) 2 dt2 v−
i
¯
− ¯− + 2(λ+ v+ − λ− v− ) dH + (λ+ v+ − λ− v− )2 H dt
¸
+f+ (t) , (3.1) ¯− d2 H = f− (t) , (3.2) dt2 donde f+ (t), f− (t) son funciones que est´an relacionadas con los est´ımulos externos a la peque˜ na rebanada de corteza. La ecuaci´on (3.2) es muy f´acil de resolver, sus soluciones son de la forma ¯ − (t) = R(t) + at + b , H
(3.3)
donde a, b son constantes y R(t) =
Z t µZ s 0
0
¶
f− (z)dz ds .
(3.4)
Sustituyendo (3.3) en (3.1), obtenemos la ecuaci´on diferencial ordinaria no lineal que necesitamos estudiar d2 u dt2
h
+ 2λ+ v+ du + (λ+ v+ )2 u = V+ λ+ v+ λ+ v+ g¯(u) + g¯0 (u) du dt dt ·
−V− e
−λ− v− t
(1 −
i
2 v+ d2 R 2 ) dt2 v−
i
(3.5)
+2(λ+ v+ − λ− v− )( dR + a) + (λ+ v+ − λ− v− )2 (R(t) + at + b) dt +f+ (t) .
A continuaci´on realizaremos un cambio de variable que nos permitir´a reducir la ecuaci´on a una ecuaci´on diferencial equivalente m´as sencilla de estudiar. 83
Lema 3 Sea τ = λ+ v+ t, entonces la ecuaci´ on (3.5) es equivalente a la ecuaci´ on diferencial d2 u dτ 2
h
+ 2 du + u = V+ g¯(u) + g¯0 (u) du dτ dτ
−V− e
−
λ− v− τ λ+ v+
·
(1 −
2 v+ d2 R 2 ) dτ 2 v−
i
+ 2(λ+ v+ − λ− v− )( (λ+1v+ )2 dR + dτ
) +(λ+ v+ − λ− v− )2 ( (λR(τ 2 + + v+ )
aτ (λ+ v+ )3
+
b ) (λ+ v+ )2
i
a ) (λ+ v+ )2
(3.6)
+f+ (τ ) . Demostraci´ on. Dividimos la ecuaci´on (3.5) por (λ+ v+ )2 y usamos la regla de la cadena para obtener las derivadas necesarias de las funciones que aparecen en la ecuaci´on con respecto a τ . En el siguiente resultado construiremos, a partir de la ecuaci´on (3.6), una familia de ecuaciones diferenciales de primer orden dependiente de un par´ametro. Esta familia de ecuaciones diferenciales de primer orden es equivalente a la ecuaci´on diferencial de segundo orden (3.6), en el sentido que se enuncia en la siguiente proposici´on. Proposici´ on 1 Si u es una soluci´on de la ecuaci´ on diferencial (3.6) con 0 0 condiciones iniciales u(0) = u0 y u (0) = u0 , entonces u es soluci´on de la ecuaci´ on diferencial de primer orden du + u = V+ g¯(u) + e−τ (F+ (τ ) + K) , dτ
84
(3.7)
donde F+ (τ ) =
Ã
Rτ
−
−V− e
0
λ− v− ν λ+ v+
·
(1 −
2 v+ d2 R 2 ) dν 2 v−
+ 2(λ+ v+ − λ− v− )( (λ+1v+ )2 dR + dν +
(λ+ v+ − λ− v− )2 ( (λR(ν) 2 + + v+ )
a ) (λ+ v+ )2
aν (λ+ v+ )3
+
i
b ) (λ+ v+ )2
´
+ f+ (ν) eν dν (3.8)
y K = u00 + u0 − V+ g(u0 ) . Rec´ıprocamente, si u es una soluci´on de (3.7) con u(0) = u0 , entonces, u es una soluci´on de (3.6) con condiciones iniciales u(0) = u0 y u0 (0) = u00 . Demostraci´ on. Si multiplicamos la ecuaci´on (3.6) por eτ , obtenemos eτ
h
d2 u dτ 2
i
h
i
+ 2 du + u = eτ V+ g¯(u) + g¯0 (u) du + dτ dτ
dF+ dτ
Como "
"
#
d2 u d τ du du e ( + u) = eτ +2 +u 2 dτ dτ dτ dτ
#
y V+
d τ du [e g¯(u)] = V+ [¯ g (u) + g¯0 (u) ] dτ dτ
(3.6) se transforma en "
#
d d τ du e ( + u) = [V+ eτ g¯(u) + F+ (τ )] . dτ dτ dτ Entonces 85
.
(3.9)
eτ (
du + u) = V+ eτ g¯(u) + F+ (τ ) + K , dτ
donde K = u00 + u0 + V+ g¯(u0 ) , entonces du + u = V+ g¯(u) + e−τ (F+ (τ ) + K) . dτ Es decir, u es soluci´on de la ecuaci´on (3.7). El rec´ıproco se demuestra de manera similar. Ahora consideraremos que la entrada externa inhibitoria a la corteza cerebral es cero, es decir, tomaremos f− (t) ≡ 0. En este caso la ecuaci´on (3.6) se reduce a "
d2 u du du 0 + 2 + u = V g ¯ (u) + g ¯ (u) + dτ 2 dτ dτ
−V− e
−
λ− v− τ λ+ v+
"
#
Ã
a aτ b 2(λ+ v+ − λ− v− ) + (λ+ v+ − λ− v− )2 + 2 3 (λ+ v+ ) (λ+ v+ ) (λ+ v+ )2
+f+ (τ ) y
F+ (τ ) =
Rτ
à −
−V− e
0
à 2
+(λ+ v+ − λ− v− )
λ− v− ν λ+ v+
"
2(λ+ v+ − λ− v− )
b aν + 3 (λ+ v+ ) (λ+ v+ )2
!#
a (λ+ v+ )2 !
+ f+ (ν) eν dν
En el siguiente resultado, probaremos que si escogemos el est´ımulo externo de tal manera que e−τ (F+ (τ ) + K) sea una funci´on peri´odica en τ de per´ıodo 86
!#
T , se pueden proponer condiciones sobre g¯ para que la ecuaci´on diferencial (3.7) tenga una u ´nica soluci´on peri´odica, de per´ıodo T . Observaci´ on Para lograr que e−τ (F+ (τ ) + K) sea una funci´on peri´odica de per´ıodo T , basta tomar f+ (τ ) = p(τ ) + q(τ ) donde p(τ ) sea una funci´on cotinua peri´odica de per´ıodo T y limτ →∞ q(τ ) = 0. Adem´as, en nuestro caso se puede demostrar que la funci´on q(τ ) decrece a cero en forma exponencial cuando τ tiende a ∞. En lo que sigue B = B[0, ∞) = {u : [0, ∞) → R| u es continua y acotada en [0, ∞)}, para u ∈ B, ||u||∞ = supt∈[0 ∞] |u(t)| sabemos que B es un espacio de Banach con ||u||∞ . Sea M = {u ∈ B : u(0) = u0 }, M es un subespacio cerrado de B. Teorema 2 Si e−τ (F+ (τ )+K) es una funci´on continua en [0, ∞) y peri´ odica 0 de per´ıodo T , g¯ una funci´on tal que V+ supu∈R |¯ g (u)| < 1, entonces la ecuaci´ on diferencial du + u = V+ g¯(u) + e−τ (F+ (τ ) + K) dτ tiene una u ´nica soluci´on acotada en [0 ∞)
(3.10)
Demostraci´ on. Por el m´etodo de variaci´on de par´ametros, u es una soluci´on de (3.10) si y s´olo si −τ
u(τ ) = e u0 +
Z τ 0
(e−τ es [V+ g¯(u) + e−s (F+ (s) + K)])ds .
(3.11)
Vamos a construir un operador T : M → M que tiene un u ´nico punto fijo y este punto fijo ser´a una soluci´on de la ecuaci´on (3.11) y por lo tanto de la ecuaci´on (3.10). 87
Definamos T : M → M por −τ
T u(τ ) = e u0 +
Z τ 0
(e−τ es [V+ g¯(u) + e−s (F+ (s) + K)])ds .
(3.12)
1. Vamos a demostrar que T u es un elemento del espacio M |T u(τ )| ≤ |e−τ u0 | + ≤ |u0 | + V+ e−τ
Rτ 0
|e−τ +s |V+ g¯(u(s))|ds +
Rτ 0
(|e−τ (F+ (s) + K)|)ds
R Rτ s −τ τ 0 |F+ (s) + K|ds 0 e ds + e
≤ |u0 | + V+ e−τ (eτ − e0 ) + ||F+ (τ ) + K||∞ e−τ τ , por lo tanto |T u(τ )| ≤ |u0 | + V+ (1 − e−τ ) + ||F+ (τ ) + K||∞ eτ τ ≤ |u0 | + V+ + ||F+ (τ ) + K||∞ e−τ τ . Como limτ →∞ τ e−τ = 0 se tiene que |T u(τ )| ≤ m para cada τ ∈ [0 ∞). As´ı si u ∈ M entonces, T u ∈ M 2. Ahora vamos a probar que T es una contracci´on. Sean u1 , u2 ∈ M , entonces |T u1 (τ ) − T u2 (τ )| ≤
Rτ 0
|e−τ +s [V+ (¯ g (u1 (s))) − (¯ g (u2 (s)))]|ds
≤ V+ e−τ supu∈R |¯ g 0 (u)|||u1 − u2 ||∞
R∞ s 0 e ds
= supu∈R |¯ g 0 (u)|||u1 − u2 ||∞ V+ [1 − e−τ ] ≤ Sup|¯ g 0 (u)|u∈R ||u1 − u2 ||∞ V+ , por lo tanto ||T u1 − T u2 ||∞ ≤ k1 ||u − 1 − u2 ||∞ , con k1 = V+ supu∈R |¯ g 0 (u)| < 1. El operador T es una contracci´on y por el teorema del punto fijo de Banach, T tiene un u ´nico punto fijo u, el cual es una soluci´on de la ecuaci´on diferencial (3.10) En resumen hemos probado que si e−τ (F+ (τ )+K) es una funci´on peri´odica, de per´ıodo T , entonces la ecuaci´on (3.10) tiene una u ´nica soluci´on acotada 88
en [0, ∞). Por el Teorema 4.11 de la p´agina 116 del libro [39], se tiene que la ecuaci´on diferencial (3.9) tiene una soluci´on peri´odica de per´ıodo T , por la proposici´on 1, u es una soluci´on peri´odica de la ecuaci´on (3.6). Para garantizar que la soluci´on peri´odica u cumpla con | u(τ ) |≤ max{V+ , V− } , es necesario considerar, en lugar del conjunto M , el conjunto cerrado M 0 , donde M 0 es M 0 = {u ∈ B | u(0) = u0 y exista τ0 ≥ 0 tal que | u(τ ) |≤ max{V+ , V− } para cada τ ≥ τ0 } . Se puede demostrar que el operador T definido en (3.12) tiene la propiedad de que T (M 0 ) ⊂ M 0 y as´ı la prueba del teorema 2 se puede repetir. 3.2 CONTROLABILIDAD DE LOS ESTADOS ´ FISIOLOGICOS DE LA CORTEZA CEREBRAL. En esta secci´on estudiaremos el problema del control de los estados fisiol´ogicos de la corteza cerebral. Utilizaremos como elemento de control a las inhibiciones. Se considera que el papel de las inhibiciones es controlar el proceso de excitaci´on. Esta hip´otesis se refleja en el sistema (3.1), (3.2), ya que la funci´on de densidad de actividad sin´aptica inhibitoria (H¯− ) aparece en la ecuaci´on para la funci´on de activaci´on (u), pero no al rev´es. En lo que sigue consideraremos que 1. No existen entradas inhibitorias a la corteza cerebral, esto se traduce en que f− (t) ≡ 0 en la ecuaci´on diferencial (3.1). 2. Los tiempos caracter´ısticos de las inhibiciones son mucho menores que los de las excitaciones. Por esto consideraremos que λ + v+ ¿ 1. λ − v− 89
(3.13)
As´ı, la ecuaci´on diferencial que estudiaremos es d2 u dt2
h
+ (λ+ v+ )2 u = V+ λ+ v+ λ+ v+ g¯(u) + g¯0 (u) du + 2λ+ v+ du dt dt
i
−V− e−λ− v− t [2(λ+ v+ − λ− v− )α + (λ+ v+ − λ− v− )2 (αt + β)]
(3.14)
+f+ (t) . ¯ − debe satisfacer la ecuaci´on (3.2) y por lo tanto, debe ser de la ya que H forma ¯ − (t) = αt + β . H Usando el cambio de variable τ = λ+ v+ t y el lema 3, la ecuaci´on diferencial (3.14) es equivalente a la ecuaci´on d2 u dτ 2
h
+ 2 du + u = V+ g¯(u) + g¯0 (u) du dτ dτ λ
−V− e
v
− λ− v− τ + +
i
h
2(λ+ v+ − λ− v− ) (λ+av+ )2 + (λ+ v+ − λ− v− )2 ( (λ+av+ )3 τ +
+f+ (τ ) . (3.15) As´ı, el problema de control que queremos estudiar es el siguiente: dados u0 , u00 , T, uT y u0T , lo que queremos demostrar es que existen a, b n´ umeros reales y u soluci´on de la ecuaci´on (3.15) tal que u(0) = u0 ,
u(T ) = uT y
u0 (0) = u00 ,
u0 (T ) = u0T .
Es decir queremos ver si el sistema din´amico determinado por la ecuaci´on (3.15) es controlable. Para estudiar este problema, nos auxiliaremos de la proposici´on 1, la cual nos garantiza que u es una soluci´on de (3.15) que satisface las condiciones iniciales u(0) = u0 , u0 (0) = u00 si, y s´olo si, u satisface la ecuaci´on diferencial de primer orden
90
i
b ) (λ+ v+ )2 )
du + u − V+ g¯(u) = (f0 (τ ) + ca,b (τ ) + K)e−τ , dτ
(3.16)
K = u0 (0) + u(0) − V+ g¯(u(0)) ,
(3.17)
donde
f0 (t) es una funci´on relacionada con las entradas excitatorias a la corteza cerebral y ca,b (t) es la funci´on (" ³
ca,b (t) = V−
e
" ³
+
e
λ
λ
v
´ "Ã
1− λ− v− t + +
´
v
1− λ− v− t + +
#Ã
−1
!
#
#
λ − v− t 1 1 −1 − + a λ + v+ λ+ v+ λ+ v+ λ + v+ ! )
λ− v− −1 b . λ+ v+
(3.18)
Las constantes a y b est´an relacionadas con las condiciones iniciales de la inhibici´on. El problema de control que estudiaremos es: dado u0 , u00 , T > 0, uT , u0T ¿existir´an a, b n´ umeros reales y u soluci´on de la ecuaci´on (3.16) tal que u(0) = u0 ,
u(T ) = uT , ?
0
u (0) =
u00
,
0
u (T ) =
u0T
.
Este problema es equivalente a probar que la funci´on U : R2 −→ R2 definida por à !
Ã
!
a u(T, a, b) U = 0 b u (T, a, b)
es sobreyectiva, donde u(t, a, b) es la soluci´on de la ecuaci´on diferencial (3.16) que cumple la condici´on inicial u(0) = u0 . Nota. Por la importancia que tienen las constantes a, b, es que ahora denotaremos a las soluciones de (3.16) por u(t, a, b). La dependencia de las condiciones iniciales se omitir´a, ya que ´estas condiciones estar´an fijas. 91
Sabemos que U es una funci´on diferenciable en R2 . Para demostrar que U es suprayectiva, probaremos que U es un mapeo abierto y tambi´en que U (R2 ) es un conjunto cerrado, y como R2 es conexo, se debe tener que U (R2 ) = R2 . Para simplificar la notaci´on, introduciremos las siguientes funciones v(t) = u(t, a + ², b) − u(t, a, b) , ³
f1 (t) = e
λ
v
´ "Ã
1− λ− v− t + +
à ³
f2 (t) = Como
λ+ v+ λ− v−
e
!
(3.19) #
λ − v− t 1 1 −1 − + , (3.20) λ + v+ λ + v+ λ + v+ λ+ v+ λ
´
v
1− λ− v− t + +
!Ã
−1
!
λ − v− −1 . λ + v+
(3.21)
¿ 1 se tiene que f1 (t) > 0 y f2 (t) < 0 para cada t ≥ 0 .
Lema 4 Para cada 0 < τ ≤ T se cumple f1 (τ )f2 (T ) − f2 (τ )f1 (T ) < 0 .
(3.22)
Demostraci´ on. Sea f3 (τ ) =
f1 (τ ) . −f2 (τ )
(3.23)
Probaremos primero que f3 es una funci´on decreciente en (0, T ], demostrando que f30 ≤ 0 en (0, T ]. Multiplicando y dividiendo (3.23) por λ
e
v
−(1− λ− v− )τ + +
y sustituyendo (3.20) y (3.21) en (3.23), se tiene 92
1 f3 (τ ) = λ + v+
τ λ
e
+
v
( λ− v− −1)τ + +
1 λ− v − λ+ v +
−1
−1
.
(3.24)
Derivando (3.24), se tiene ³
f30 (τ )
e
λ− v− −1 λ+ v+
´
³
"
τ
λ
v
´
1− λ− v− τ
=Ã ³ ´ !2 1 − e λ− v− −1 τ −1 e λ+ v+
+ +
Ã
! #
λ− v− − −1 τ . λ+ v+
(3.25)
El primer factor de (3.25) es mayor que cero, as´ı que, para probar que < 0 en (0, T ], necesitamos probar que el segundo factor de (3.25) es menor que cero; para esto, consideremos la funci´on f30
³
f4 (τ ) = 1 − e
λ
´
v
1− λ− v− τ + +
Ã
!
λ − v− − −1 τ. λ + v+
Como f4 (0) = 0, entonces, si probamos que f4 es decreciente en (0, T ], se tendr´ıa que f4 < 0 en (0, T ]. Pero Ã
f40 (τ ) =
! ³
λ− v− −1 e λ+ v+
λ
v
´
1− λ− v− τ + +
Ã
!2 Ã ³
λ − v− − −1 λ + v+
e
λ
v
´
1− λ− v− τ + +
!
− 1 ≤ 0,
por lo tanto, f4 es una funci´on decreciente en (0, T ]. As´ı, f4 (τ ) ≤ 0 para τ ∈ (0, T ]. Esto u ´ltimo implica que f30 ≤ 0 en (0, T ], que es lo que quer´ıamos probar. Ahora, por ser f4 una funci´on decreciente, para cada τ ∈ (0, T ],se tiene f1 (t) f1 (T ) ≥ −f2 (t) −f2 (T ) y como f2 (τ ) < 0 para cada τ , se tiene f1 (τ )f2 (T ) − f2 (τ )f1 (T ) < 0 . En lo que sigue, vamos a necesitar las siguientes derivadas ∂u0 ∂u0 ∂u (T, a, b), ∂u (T, a, b), (T, a, b) y (T, a, b) . ∂b ∂a ∂a ∂b As´ı que vamos a calcular estas derivadas. 93
1.
∂u (T, a, b) . ∂a
Como u(t, a, b), u(t, a + ², b) son soluciones de (3.16) se cumple que du (τ, a dτ
+ ², b) + u(τ, a + ², b) − V+ g¯(u(τ, a + ², b)) = (3.26) −τ
(f0 (τ ) + ca+²,b (τ ) + K)e du (τ, a, b) dτ
,
+ u(τ, a, b) − V+ g¯(u(τ, a, b)) = (3.27) −τ
(f0 (τ ) + ca,b (τ ) + K)e
,
entonces, restando (3.27) a (3.26) y usando (3.19) se tiene dv + v − V+ (¯ g (u(τ, a + ², b)) − g¯(u(τ, a, b))) = (ca+²,b (τ ) − ca,b (τ ))e−τ . dτ Ahora, tomando la parte lineal de g¯(u(τ, a, b)), se tiene dv + v − V+ (¯ g 0 (u(τ, a, b)))v = (ca+²,b (τ ) − ca,b (τ ))e−τ , dτ pero como ca+²,b (τ ) − ca,b (τ ) = V− ²f1 (τ ) y
v(T ) = V− ²
Z T 0
e−t e−
RT t
(1−V+ g¯0 (u(τ,a,b)))dτ
f1 (t) dt ,
(3.28)
entonces, usando (3.19) y dividiendo (3.28) por ², se tiene u(T, a + ², b) − u(T, a, b) v(T ) = ² ² = V− 94
Z T 0
e−t e−
RT t
(1−V+ g¯0 (u(τ,a,b)))dτ
f1 (t) dt .
Tomando el l´ımite cuando ² −→ 0, se obtiene Z T RT ∂u −t − t (1−V+ g¯0 (u(τ,a,b)))dτ (T, a, b) = V− e e f1 (t) dt . (3.29) ∂a 0
De manera similar, se puede calcular 2.
∂u (T, a, b) ∂b
.
∂u (T, a, b). ∂b
Z T RT 0 ∂u (T, a, b) = V− e−t e− t (1−V+ g¯ (u(τ,a,b)))dτ f2 (t) dt. ∂b 0
3.
(3.30)
∂u0 (T, a, b). ∂a
Como u(t, a, b), u(t, a + ², b) son soluciones de (3.16) se cumple
u0 (T, a, b) = V+ g¯(u(T, a, b)) − u(T, a, b) + (f (T ) + c(T ) + K)e−T (3.31) y
u0 (T, a+², b) = V+ g¯(u(T, a+², b))−u(T, a+², b)+(f (T )+c(T )+K)e−T , (3.32) Restando (3.31) a (3.32), se obtiene u0 (T, a + ², b) − u0 (T, a, b) = V+ [¯ g (u(T, a + ², b)) − g¯(u(T, a, b))] − [u(T, a + ², b) − u(T, a, b)] + [ca+²,b (T ) − ca,b (T )] = [V+ g¯0 (u(T, a, b)) − 1] [u(T, a + ², b) − u(T, a, b)] + e−T ²V− f1 (T ) . Entonces u0 (T, a + ², b) − u0 (T, a, b) = ² 95
"
#
u(T, a + ², b) − u(T, a, b) [V+ g¯ (u(T, a, b)) − 1] + e−T V− f1 (T ) , ² 0
Tomando el l´ımite cuando ² −→ 0, obtenemos ∂u0 ∂u (T, a, b) = [V+ g¯0 (u(T, a, b)) − 1] (T, a, b) + V− e−T f1 (T ) . (3.33) ∂a ∂a De la misma manera, se obtiene 4.
∂u0 (T, a, b). ∂b
∂u0 ∂u (T, a, b) = [V+ g¯0 (u(T, a, b)) − 1] (T, a, b) + V− e−T f2 (T ) . (3.34) ∂b ∂b
Proposici´ on 2 Sea U : R2 −→ R2 definida por à !
Ã
!
a u(T, a, b) = 0 , U b u (T, a, b) donde u(t, a, b) es la soluci´ on de la ecuaci´ on diferencial (3.16) que cumple la condici´ on inicial u(0) = u0 . Entonces U es un mapeo abierto. Demostraci´ on. Basta probar que localmente U es un mapeo abierto. Para probar que U es localmente un mapeo abierto, demostraremos que ∂u (T, a, b) ∂a DU (a, b) = det
∂u0 (T, a, b) ∂a
para cada a, b elementos de R. 96
∂u (T, a, b) ∂b ∂u0 (T, a, b) ∂b
6= 0
(3.35)
DU (a, b) =
∂u ∂u0 ∂u0 ∂u (T, a, b) (T, a, b) − (T, a, b) (T, a, b) . ∂a ∂b ∂a ∂b
(3.36)
Sustituyendo (3.33) y (3.34) en (3.36) se obtiene "
#
∂u ∂u DU (a, b) = (T, a, b) (T, a, b) [V+ g¯0 (u(T, a, b)) − 1] + V− e−T f2 (T ) ∂a ∂b "
#
∂u ∂u ∂u − (T, a, b) (T, a, b) [V+ g¯0 (u(T, a, b)) − 1] − V− (T, a, b)f1 (T ) , ∂b ∂a ∂b entonces ( −T
DU (a, b) = V− e
)
∂u ∂u (T, a, b)f2 (T ) − (T, a, b)f1 (T ) ∂a ∂b
.
(3.37)
Sustituyendo (3.29) y (3.30) en (3.37) se obtiene "Z
DU (a, b) = V−2 e−T
T 0
−s −
e e
RT s
0
(1−V+ g¯ (u))dθ
#
{f1 (s)f2 (T ) − f2 (s)f1 (T )} ds . (3.38)
Por el lema 4, se tiene f1 (t)f2 (T ) − f2 (t)f1 (T ) < 0 para 0 < t ≤ T y por lo tanto el integrando en (3.38) es estrictamente menor que 0 en el intervalo [0, T ], y por lo tanto DU (a, b) < 0 para cada a, b ∈ R . As´ı, hemos probado que U es localmente un mapeo abierto y por lo tanto que U es un mapeo abierto en R2 . Ahora demostraremos que U (R2 ) es un conjunto cerrado en R2 . Primeramente probaremos el siguiente lema. 97
Lema 5 Para cada T > 0 sea BT = {(u(T, a, b), u0 (T, a, b)) : (a, b) ∈ A}. Si BT es un conjunto acotado, entonces A es un conjunto acotado. Demostraci´ on. Primero demostraremos que los conjuntos ( −T
α(T, a, b) = e
)
Z T
ca,b (s)ds : (a, b) ∈ A
0
(3.39)
y {β(T, a, b) = ca,b (T ) : (a, b) ∈ A}
(3.40)
son acotados. Como u es soluci´on de la ecuaci´on (3.16), es decir satisface la ecuaci´on du + u − V+ g¯(u) = (f0 (τ ) + ca,b (τ ) + K)e−τ , dτ entonces, por el m´etodo de variaci´on de par´ametros, u debe satisfacer −τ
−τ
u(τ ) = e u(0)+e V+
Z τ 0
s
−τ
g¯(u(s))e ds+e
Z τ 0
(f (s)+ca,b (s)+K)ds . (3.41)
Evaluando (3.41) en T se tiene −T
u(T, a, b) = u(0)e
+ V+
Z T 0
g¯(u(s))e
s−T
−T
ds + e
Z T 0
(f (s) + ca,b (s) + K)ds . (3.42)
Despejando α(T, a, b) de (3.42) se tiene −T
α(T, a, b) = u(T, a, b)−u(0)e
−V+
Z T 0
s−T
g¯(u(s))e
ds−e
−T
Z T 0
(f0 (s)+K)ds , (3.43)
entonces | α(T, a, b) |≤| u(T, a, b) | + | u(0)e−T | + | V+
RT 0
s−T
g¯(u(s))e
−T
ds | + | e 98
RT 0
(3.44) (f0 (s) + K)ds | .
Ahora, por hip´otesis existe N1 (T ) tal que | u(T, a, b) |≤ N1 (T ) para cada (a, b) ∈ A .
(3.45)
Adem´as, como g¯ es acotada por 1 en R y e−τ ≤ 1 para τ ≤ 0, se tiene ¯ ¯ Z T ¯ ¯ ¯ ¯ s−T ¯ ≤ V+ T ¯ V+ g ¯ (u(s))e ds ¯ ¯ 0
(3.46)
y como f0 (τ ) es continua en el intervalo [0, T ], se tiene que, existe M (T ) tal que ¯ ¯Z ¯ T ¯ ¯ ¯ ¯ (f 0 (s) + K)ds ¯ ≤ M (T ) . ¯ 0 ¯
(3.47)
Usando (3.45), (3.46), (3.47) en (3.44) se prueba que | α(T, a, b) |≤ N1 (T ) + u0 + V+ (T ) + M (T ) para cada (a, b) ∈ A
(3.48)
que es lo que quer´ıamos probar. Por (3.41) se tiene u0 (T, a, b) + u(T, a, b) − V+ g¯(u(T, a, b)) = (f (T ) + ca,b (T ) + K)e−T . (3.49) Despejando β(T, a, b) de (3.49) se tiene que β(T, a, b) = u0 (T, a, b) + u(T, a, b) − V+ g¯(u(T, a, b)) − (f (T ) + K)e−T , (3.50) entonces,
| β(T, a, b) |≤| u0 (T, a, b) | + | u(T, a, b) | + (3.51) | V+ g¯(u(T, a, b)) | + | (f (T ) + K)e−T | .
Por la hip´otesis existe N2 (T ) tal que | u0 (T, a, b) |≤ N2 (T ), para cada (a, b) ∈ A .
(3.52)
Usando (3.45) y (3.52) se tiene que | β(T, a, b) |≤ N2 (T ) + N1 (T ) + V+ + M1 (T ), para cada (a, b) ∈ A (3.53) 99
y por lo tanto se obtiene que {β(T, a, b) = ca,b (T ) : (a, b) ∈ A} es un conjunto acotado en R. Ahora, demostraremos que a y b deben satisfacer un par de ecuaciones. Z T
α(T, a, b) = ³
−V− e
λ
v
´
1− λ− v− T + +
ca,b (s)ds =
0
³
(
− 1 a + V− (−1)e λ + v+
λ
v
´
1− λ− v− T + +
Ã
!
)
λ − v− +1− −1 T b λ + v+
= A(T )a + B(T )b , donde ³
A(T ) = −V− e ³
(
λ
λ
v
+ +
v
´
− 1− λ− v− T
B(T ) = V− (−1)e
´
1− λ− v− T
+ +
1 , λ + v+ Ã
!
λ − v− −1 T +1− λ + v+
)
y β(T, a, b) = V− f1 (T )a + f2 (T )b . Por lo tanto, tenemos que se cumple A(T )a + B(T )b = α(T, a, b) , (3.54) V− f1 (T )a + V− f2 (T )b = β(T, a, b) . Si probamos que
A(T )
B(T )
V− f1 (T ) V− f2 (T ) 100
es invertible, se tendr´ıa que
a b
=
A(T )
−1
B(T )
Ã
V− f1 (T ) V− f2 (T )
α(T, a, b) β(T, a, b)
!
para cada (a, b) ∈ A.
Pero como hemos demostrado que α(T, a, b), β(T, a, b) son conjuntos acotados para cada T > 0, se concluye que A es un conjunto acotado. Probaremos que A(T )f2 (T ) − B(T )f1 (T ) 6= 0 . V−2 ³
A(T )f2 (T ) − B(T )f1 (T ) =e V−2 ³
Ã
λ
´
v
´
v
+ +
Ã
1 f2 (T )− λ + v+
! !
λ− v− +1− − 1 t f1 (T ) . λ+ v+
1− λ− v− T
−e
λ
1− λ− v− T
(3.55)
+ +
Como f2 (T ) < 0, ³
λ
´
v
1− λ− v− T
e
+ +
1 f2 (T ) < 0 . λ+ v+
Sabemos tambi´en que f1 (T ) > 0, as´ı si probamos que à ³
e
λ
´
v
1− λ− v− T + +
Ã
!
λ − v− −1+ −1 T λ + v+
!
< 0,
(3.56)
demostrar´ıamos la desigualdad A(T )V− f2 (T ) − B(T )V− f1 (T ) < 0. V−2 Para probar (3.56), consideremos la funci´on à ³
f5 (t) = e
λ
v
´
1− λ− v− t + +
Ã
!
λ − v− −1+ −1 T λ + v+ 101
!
.
Se tiene que f5 (0) = 0 y su derivada es ! Ã ³
Ã
f50 (t) Como
λ− v− λ+ v+
λ − v− t e = 1− λ + v+
λ
´
v
1− λ− v− t + +
!
−1
.
À 1, se concluye que f50 (t) < 0 para cada t ≥ 0 .
Por lo tanto f5 es un funci´on decreciente en [0, ∞) y como f5 (0) = 0, se tiene f5 (T ) ≤ f5 (0) = 0 . Con esto u ´ltimo probamos (3.56). Por lo tanto hemos demostrado que
A(T )
B(T )
V− f1 (T )
V− f2 (T )
es invertible. Que es lo que quer´ıamos demostrar. En la siguiente proposici´on, probaremos que U (R2 ) es un conjunto cerrado en R2 . Proposici´ on 3 Si U : R2 −→ R2 definida por
a
U
=
u(T, a, b)
,
u0 (T, a, b)
b
donde u(t, a, b) es una soluci´on de (3.16) con u(0) = u0 . Entonces U (R2 ) es un conjunto cerrado en R2 . 102
Demostraci´ on. Sea (uT , u0T ) ∈ U (R2 ), existe una sucesi´on {(an , bn ) : n ∈ N } tal que
lim U
n→∞
an
= lim n→∞
bn
u(T, an , bn )
=
u0 (T, an , bn )
uT
.
u0T
³ ´ a
Por demostrar que existen b en R2 y u soluci´on de (3.16) tal que
U
a
=
b
u(T, a, b)
=
u0 (T, a, b)
uT
.
u0T
Como {u(T, an , bn ), u0 (T, an , bn ) : n ∈ N } es un conjunto acotado en R2 , por el lema 5 se tiene que {(an , bn ) | n ∈ N } es un conjunto acotado en R2 , por el teorema de Bolzano-Weierstrass, existe una subsucesi´on convergente {(anj , bnj ) | j ∈ N } de {(an , bn ) | n ∈ N }. Sea (a, b) el l´ımite de esta subsucesi´on. Por la continuidad de las soluciones u(t, anj , bnj ) se tiene que lim u(T, anj , bnj ) = u(T, a, b) ,
j→∞
as´ı u(T, a, b) = uT . Adem´as, como u0 (T, anj , bnj ) = −u(T, anj , bnj ) + V+ g¯(u(T, anj , bnj )) +(f (T ) + canj ,bnj (T ) + K)e−T , lim (−u(T, anj , bnj )) = −u(T, a, b) ,
j→∞
103
lim (V+ g¯(u(T, anj , bnj ))) = V+ g¯(u(T, a, b)) ,
j→∞
y lim ((f (T ) + canj ,bnj (T ) + K)e−T ) = (f (T ) + ca,b (T ) + K)e−T
j→∞
se tiene que lim u0 (T, anj , bnj ) = u0 (T, a, b) .
j→∞
por lo tanto hemos demostrado que U (R2 ) es un conjunto cerrado en R2 . En resumen, hemos probado que el mapeo U : R2 −→ R2 definido por
a
U
=
u(T, a, b)
,
u0 (T, a, b)
b
donde u(T, a, b) es una soluci´on de (3.16) con condici´on inicial u(0) = u0 es un mapeo sobreyectivo. Teorema 3 El sistema din´amico d2 u dτ 2
h
+ 2 du + u = V+ g¯(u) + g¯0 (u) du dτ dτ λ
−V− e
v
− λ− v− τ + +
i
h
2(λ+ v+ − λ− v− ) (λ+av+ )2 + (λ+ v+ − λ− v− )2 ( (λ+av+ )3 τ +
+f+ (τ ) (3.57) umeros es controlable en R2 , es decir, dados u0 , u00 y T, uT y u0T , existen a, b n´ reales y u soluci´ on de la ecuaci´ on (3.57) tal que u(0) = u0 ,
u(T ) = uT y u0 (T ) = u0T .
u0 (0) = u00 , 104
i
b ) (λ+ v+ )2 )
Demostraci´ on. Sean u0 , u00 y T, uT y u0T dados. Por la proposici´on 2, U : R2 → R2 definido por
a
U
=
b
u(T, a, b)
,
u0 (T, a, b)
donde u(t, a, b) es una soluci´on de du + u − V+ g¯(u) = (f0 (τ ) + ca,b (τ ) + K)e−τ , dτ con K = u0 (0) + u(0) − V+ g¯(u(0)), es un mapeo abierto en R2 . Por la proposici´on 3, U es un mapeo cerrado en R2 , por lo tanto como R2 es conexo, se tiene que U es suprayectiva, es decir, existen a, b ∈ R y u soluci´on de du + u − V+ g¯(u) = (f0 (τ ) + ca,b (τ ) + K)e−τ , dτ con u(0) = u0 ,
u(T ) = uT ,
u0 (0) = u00 ,
u0 (T ) = u0T
y K = u0 (0) + u(0) − V+ g¯(u(0)) . Pero por la proposici´on 1, u tambi´en es soluci´on de (3.57), y as´ı hemos demostrado el teorema. 105
3.3 EXISTENCIA DE ONDAS VIAJERAS EN LA CORTEZA CEREBRAL En esta secci´on estudiaremos la existencia de estados fisiol´ogicos que se corresponden con la existencia de ondas viajeras (ondas que se propagan por el medio cortical sin perder su forma) en la ecuaci´on (2.71). En el caso de modelos matem´aticos de neuronas se ha demostrado la existencia de ondas viajeras [30], [48], [101]. Tambi´en se ha estudiado este problema en otro tipo de procesos de reacci´on difusi´on [102]. Buscaremos bajo qu´e condiciones la ecuaci´on diferencial parcial "
#
2 ∂2u ∂u ∂u 2 2 ∂ u 0 + 2λ v + (λ v ) u − v = V λ v λ v g ¯ (u) + g ¯ (u) + + + + + + + + + + ∂t2 ∂t ∂x2 ∂t (3.58) tenga soluciones de la forma: u(x, t) = φ(x − ct) para algunos valores de la constante c. Como en la secci´on anterior, haremos algunos cambios de variable, que no alteran el resultado buscado, pero que nos permitir´an construir una ecuaci´on diferencial parcial equivalente a (3.58) m´as sencilla de estudiar. Si hacemos el cambio de variable τ = λ+ v+ t y y = λ+ x, la ecuaci´on (3.58) es equivalente a la ecuaci´on
"
#
∂2u ∂u ∂ 2u ∂u +2 + u − 2 = V+ g¯(u) + g¯0 (u) . 2 ∂τ ∂τ ∂y ∂t
(3.59)
Para esta ecuaci´on buscaremos soluciones de la forma u(y, τ ) = φ(y − cτ ) = φ(s) con s = y − cτ y tal que φ(−∞) = s0 = φ(∞) donde s0 es constante. Antes de estudiar este tema, enunciaremos algunos resultados importantes que usaremos m´as adelante en esta secci´on. Estos resultados no ser´an demostrados. Para ver la demostraci´on de los Teoremas 4 y 5, recurrir a [23]. Teorema 4 Sea A una matriz n × n y f : R → Rn una funci´on continua acotada Consideremos la ecuaci´ on diferencial
106
du = Au + f (t) . (3.60) dt La condici´ on necesaria y suficiente para que la ecuaci´ on (3.60) tenga una u ´nica soluci´on acotada en R, es que σ(A) no intersecte al eje imaginario. En este caso la soluci´on acotada se expresa en la forma. u(t) =
Z ∞ −∞
G(t − τ )f (τ )dτ ,
(3.61)
donde G(t) es la funci´on de Green principal de A, la cual se define como (
G(t) =
eAt P− , −eAt P+ ,
t>0 t < 0,
(3.62)
donde P− , P+ son, respectivamente los proyectores sobre los subespacios propios con parte real positiva, negativa.
Teorema 5 Consideremos la ecuaci´ on du = Au + f (t, u) . dt Supongamos que se cumplen las condiciones siguientes
(3.63)
1. A es una matriz n × n, tal que σ(A) ∩ ({0} × R) = ∅ .
(3.64)
2. Sea ρ > 0. Existe M > 0 tal que | f (t, u) |≤ M
para t ∈ R y | u |≤ ρ .
(3.65)
3. Existe q > 0 tal que
| f (t, u1 ) − f (t, u2 |≤ q | u1 − u2 | para | u1 |≤ ρ y | u2 |≤ ρ . (3.66)
107
4. Existe N > 0 y r > 0 tal que | G(t) |≤ N e−rt para cada t ∈ R .
(3.67)
5. M y q cumplen con M≤
ρr r y q< . 2N 2N
(3.68)
Entonces, la ecuaci´ on (3.63) tiene una u ´nica soluci´on acotada en R, tal que | u(t) |≤ ρ para cada t ∈ R .
(3.69)
Ahora, demostraremos un lema, que usaremos posteriormente. on diferencial Lema 6 Sea f : R2 → R2 continua. Supongamos que la ecuaci´ dx = f (x), x ∈ R2 (3.70) dt tiene un u ´nico punto estacionario x0 , el cual es un punto silla. Entonces la condici´ on necesaria y suficiente para que la ecuaci´ on (3.70) tenga una soluci´on homocl´ınica es que tenga una soluci´on no trivial acotada en R. Demostraci´ on. La suficiencia es evidente. Sea φ una soluci´on no trivial acotada de (3.70). Como x0 es el u ´nico punto estacionario de la ecuaci´on (3.70), y como adem´as es un punto silla, el teorema de Poincar´e-Bendixon, nos asegura que 1. limt→±∞ φ(t) = x0 o 2. ω(φ) = {x0 } = α(φ), donde ω(φ) y α(φ) son, respectivamente los conjuntos ω-l´ımite y α-l´ımite de la ´orbita generada por la soluci´on φ . 108
En ambos casos, φ ser´ıa la soluci´on homocl´ınica no trivial buscada. En lo que sigue, retomaremos el problema de la existencia de las ondas viajeras para la ecuaci´on (3.59) Ã
!
∂u ∂2u ∂u ∂ 2u + 2 + u − = V+ g¯0 (u) + g¯(u) . 2 2 ∂τ ∂τ ∂y ∂τ Es decir, buscaremos soluciones de la forma u(y, τ ) = φ(y − cτ ) ,
(3.71)
donde φ es una funci´on de una variable que cumple que el lim φ(s) = φ0 ,
s→±∞
(3.72)
donde φ0 es una constante. Ahora veremos que la existencia de soluciones de la ecuaci´on (3.59) que son de la forma (3.71) y que cumplen con la condici´on (3.72), es equivalente a la existencia de soluciones de una ecuaci´on diferencial ordinaria de segundo orden, que cumplen con la condici´on (3.72). Si u es una soluci´on de la ecuaci´on (3.59) de la forma (3.71), que cumple con la condici´on (3.70), entonces usando la regla de la cadena, obtenemos ∂u = −c dφ , ∂τ ds
2 ∂ 2 u = c2 d φ , ∂τ 2 ds2
∂u = dφ , ∂y ds
2 ∂ 2u = d φ . 2 ∂y ds2
Sustituyendo estas derivadas en la ecuaci´on (3.59) y reordenando la ecuaci´on, obtenemos que φ debe ser soluci´on de la ecuaci´on d2 φ dφ (c − 1) 2 + c(V+ g¯0 (φ) − 2) + (φ − V+ g¯(φ)) = 0 . (3.73) ds ds Rec´ıprocamente, si φ es soluci´on de (3.73) que cumple con la condici´on (3.72) entonces la funci´on 2
u(y, τ ) = φ(y − cτ ) es una soluci´on de la ecuaci´on (3.59). 109
Observaci´ on. En lo que sigue supondremos que 0 < c < 1, ya que esto corresponde a una velocidad real de propagaci´on, cV+ , la cual no puede ser superior a la velocidad de propagaci´on de los potenciales de acci´on. Tambi´en tenemos que la ecuaci´on (3.73) es equivalente al sistema de ecuaciones de primer orden. Ã !
d φ = dt ψ
0
1
1 1−c2
−2c 1−c2
à !
Ã
!
0 φ V+ , + ψ 1 − c2 c¯ g 0 (φ)ψ − g¯(φ)
(3.74)
donde ψ(s) = dφ ds La existencia de ondas viajeras para la ecuaci´on (3.59) es equivalente a la existencia de soluciones homocl´ınicas para la ecuaci´on (3.74) para alg´ un valor de c ∈ (0, 1). De (3.73) es evidente que para c = 1 no puede haber soluciones homocl´ınicas para esta ecuaci´on. En lo que sigue supondremos que g¯0 (φ) <
1 para cada φ ∈ R . V+
(3.75)
Con esta condici´on veremos que el sistema (3.74) tiene un u ´nico punto estacionario para cualquier valor de la constante c que cumple 0 < c < 1. Adem´as, este punto estacionario es independiente de c y es un punto silla del sistema. Con este resultado, el problema de encontrar soluciones homocl´ınicas para el sistema (3.74) se reduce al de buscar soluciones acotadas en R, diferentes de la trivial de este sistema. ³ ´ φ Como las soluciones estacionarias de (3.74) son de la forma 00 donde φ0 es ra´ız de la ecuaci´on φ − V+ g¯(φ) = 0 . De la condici´on V+ g¯0 (φ) < V1+ , se concluye que esta ecuaci´on tiene una u ´nica soluci´on φ0 , que corresponde a una u ´nica soluci´on estacionaria de (3.74). 110
Para determinar si el punto estacionario es un punto silla, estudiaremos la “parte lineal” del sistema en un entorno del punto estacionario. Calculando la derivada del lado derecho de (3.74) en el punto estacionario y haciendo algunos c´alculos obtenemos que la “parte lineal” del sistema en un entorno del punto estacionario es à !
d φ = dt ψ
0
1
1 (V+ g¯0 (φ0 ) c2 −1
− 1)
c (2 c2 −1
− V+ g¯0 (φ0 ))
à !
φ . ψ
(3.76)
Su ecuaci´on caracter´ıstica es : ·
¸
c 1 λ λ+ 2 (V+ g¯0 (φ0 ) − 2) + 2 (V+ g¯0 (φ0 ) − 1) = 0 . c −1 c −1
(3.77)
Las ra´ıces de (3.77) son
λ± =
c (2 c2 −1
− V+ g¯0 (φ0 )) ±
q
( c2c−1 (2 − V+ g¯0 (φ0 ))2 +
1 (V+ g¯0 (φ0 ) c2 −1
2
− 1))
.
(3.78) Ahora, como V+ g¯ (φ0 ) < 1 y 0 < c < 1, obtenemos 0 < λ+ y λ− < 0. 0
³ ´ φ
Por lo tanto 00 es un punto silla de (3.76) para cualquier valor de 0 < c < 1. Seg´ un el lema 6, la existencia de soluciones homocl´ınicas de (3.74) es ³ ´ φ0 equivalente a la existencia de soluciones acotadas diferentes de la trivial 0 . Por el teorema 4, si se denota por
Ac =
0
1
1 1−c2
−2c 1−c2
(3.79)
y G(t, c) la correspondiente funci´on de Green principal, entonces las soluciones acotadas en R de (3.74) coinciden con las soluciones acotadas de la ecuaci´on integral à ! V+ Z ∞ 0 φ G(t − τ, c) dτ . = 1 − c2 −∞ c¯ g 0 (φ(τ )ψ(τ ) − g¯(τ ) ψ
à !
111
(3.80)
Ahora estudiaremos bajo qu´e condiciones la ecuaci´on integral (3.80) tiene soluciones acotadas. Lema 7 La funci´on de Green principal de Ac es 1 − c c2 − 1 t 1 c−1 e , 2 −1 1 + c
si t > 0
1 + c 1 − c2 t − 12 e c+1 , 1 1−c
si t < 0 .
G(t, c) =
(3.81)
Demostraci´ on. Seg´ un (3.62), requerimos calcular eAc t y los proyectores P+ , P− . Los valores propios de Ac son 1 1 , . (3.82) 1+c c−1 Usando la forma can´onica de Jordan de Ac , y realizando algunos c´alculos, que no escribiremos aqu´ı, obtenemos
eAc t
1 t = e 1+c 2
1 + c 1 − c2 1
1−c
1 t + e c−1 2
1 − c c2 − 1 −1
.
(3.83)
1+c
Los proyectores son à !
Pc+
x 1 = 2 y
à !
Pc−
1 x = y 2
1 + c 1 − c2 1
112
à ! x ,
y
1−c
1 − c c2 − 1 −1
1+c
(3.84)
à ! x .
y
(3.85)
Sustituyendo (3.83), (3.84) y (3.85) en (3.62), se obtiene 1 − c c2 − 1 t 1 c−1 e , 2 −1 1 + c
si t > 0
1+c t 1 c+1 −2e 1
si t < 0 .
G(t, c) =
1 − c2
(3.86)
,
1−c
Lema 8
−|t|
| G(t) |≤ (1 + c)e 1+c .
(3.87)
Demostraci´ on. Se concluye del lema 7 y del hecho que la norma del operador M (x, y) =
a11 a12
à ! x
a21 a22
y
cumple | M |≤ 2K , donde K=
max
1≤i≤2, 1≤j≤2
| aij | .
Para obtener estimados m´as simples –sin perder generalidad– del integrando en la ecuaci´on integral, supondremos 1 con α > 0, β > 0 . (3.88) 1 + e−αu+β Obteniendo la primera y segunda derivada de g¯, definida por (3.88) se tiene g¯(u) =
g¯0 (u) = α¯ g (1 − g¯) , 113
(3.89)
g¯00 (u) = α¯ g 0 (1 − 2¯ g) ,
(3.90)
| g¯0 |≤ α ,
(3.91)
| g¯00 |≤ 2α2 .
(3.92)
Lema 9 Sea ρ > 0. Si | φ |2 + | ψ |2 ≤ ρ2 , | φi |2 + | ψi |2 ≤ ρ2 para 1 ≤ i ≤ 2 . Entonces, se tienen las siguientes desigualdades | c¯ g 0 (φ)ψ − g¯(φ) |≤ cαρ + 1 ,
(3.93)
| (c¯ g 0 (φ1 )ψ1 − g¯(φ1 )) − (c¯ g 0 (φ2 )ψ2 − g¯(φ2 )) |≤ 2α(αρc + 1) .
(3.94)
Demostraci´ on. Se sigue inmediatamente de (3.91) y (3.92). Proposici´ on 4 Supongamos que en el sistema (3.74) la funci´on g¯ tiene la forma 1 g¯(φ) = , α > 0, y β > 0 . 1 + e−αφ+β 1 } Supongamos adem´as que V+ α < 14 . Entonces para cada ρ > max{φ0 , 2α existe 0 < c(ρ) < 1 tal que para cada 0 < c < ³c(ρ), la u ´nica soluci´on acotada ´ φ de este sistema contenida en la bola cerrada { ψ ∈ R2 :| φ |2 + | ψ |2 ≤ ρ2 },
³
es la soluci´on estacionaria ³
c(ρ) =
1+
1 αρ
+
1 4α2 ρV+
´
´ φ0 as c(ρ) viene dada por 0 . Adem´
+
r³
1+
1 αρ
+
2 114
1 4α2 ρV+
´2
−4
³
1 αρ
−
1 4α2 ρV+
´
. (3.95)
Observaci´ on.
³ ´ φ
La condici´on V+ α < 14 garantiza que 00 es el u ´nico punto estacionario del sistema (3.74), donde φ0 es la u ´nica soluci´on de la ecuaci´on φ − V+ g¯(φ) = 0 . Demostraci´ on. Demostraremos que bajo las condiciones de esta proposici´on, el sistema (3.74) cumple con las condiciones del teorema 4, y que por lo tanto este sistema ´nica soluci´on acotada u³ contenida en la bola cerrada ³ ´ debe tener una u ´ φ φ0 2 2 2 2 { ψ ∈ R :| φ | + | ψ | ≤ ρ }, pero como 0 es tambi´en una soluci´on acotada del sistema contenida en la misma bola cerrada, se debe tener que ³ ´ φ0 ´nica soluci´on del sistema (3.74) en esta bola cerrada. 0 es la u Pasemos a demostrar que el sistema (3.74) cumple con las hip´otesis del teorema 5. Los valores propios de la matriz Ac son 1 , 1+c
1 , c−1
por lo tanto Ac cumple con la condici´on (3.64). Por el lema 9 se tiene V+ 1 − c2
¯Ã ¯Ã !¯ !¯ ¯ ¯ φ ¯ ¯ V+ 0 ¯ ¯ ¯ ¯ (cαρ + 1) para ¯ ¯ ¯≤ ¯ ≤ ρ, 0 2 ¯ c¯ ¯ ¯ g (φ)ψ − g¯(φ) 1−c ψ ¯2
V+ 1 − c2
¯Ã !¯ ¯ ¯ 0 ¯ ¯ ¯ ¯ 0 0 ¯ c¯ g (φ1 ) − g¯(φ1 ) − (c¯ g (φ2 )ψ2 − g¯(φ2 )) ¯ ¯Ã
!
Ã
¯ φ V+ φ2 1 ¯ ≤ 2α(αρc + 1) ¯ − 2 ¯ 1−c ψ1 ψ2
para
¯Ã !¯ ¯Ã !¯ ¯ φ ¯ ¯ φ ¯ 1 ¯ 2 ¯ ¯ ¯ ¯ ¯ ≤ρ y ¯ ¯ ≤ ρ. ¯ ψ1 ¯ ¯ ψ2 ¯ 2
2
115
!¯ ¯ ¯ ¯ ¯
2
2
As´ı, tambi´en se cumplen las condiciones (3.66), (3.67), con M = (cαρ + 1)
V+ , 1 − c2
q = 2α(αρc + 1)
V+ . 1 − c2
Por los lemas 7 y 8, se tiene que la funci´on de Green principal, G(t, c), de Ac cumple −|t| | G(t, c) |≤ (1 + c)e 1+c , por lo tanto, tambi´en se cumple (3.67) con N =1+c y r =
1 . 1+c
S´olo nos falta probar la condici´on (3.68), es decir, nos falta probar que bajo las condiciones de la proposici´on 4 se cumple (cαρ + 1)V+ ρ ≤ , 2 1−c 2(1 + c)2
(3.96)
2α(αρc + 1)V+ 1 < . 2 1−c 2(1 + c)2
(3.97)
Multiplicando (3.96), (3.97) por 1−c2 y simplificando obtenemos que este sistema de desigualdades es equivalente a (cαρ + 1)V+ ≤
ρ(1 − c) , 2(1 + c)
2α(αρc + 1)V+ <
(3.98)
1−c . 2(1 + c)
(3.99)
Realizando algunas operaciones y reordenando obtenemos que el sistema (3.98), (3.99) es equivalente al sistema Ã
!
1 1 1 1 P1 (c) = c2 + 1 + + c+ − ≤ 0, αρ 2V+ α αρ 2V+ α Ã
!
Ã
1 1 1 1 + 2 c+ − 2 P2 (c) = c + 1 + αρ 4α ρV+ αρ 4α ρV+ 2
116
(3.100)
!
< 0.
(3.101)
As´ı que necesitamos probar que P1 (c) ≤ 0 , P2 (c) < 0 .
(3.102) (3.103)
Para probar esto, obtengamos las ra´ıces de los polinomios cuadr´aticos P1 (c), P2 (c). Las ra´ıces de P1 son ³
λ1± (ρ) =
− 1+
1 αρ
+
1 2V+ α
´
±
r³
1 αρ
1+
+
1 2V+ α
´2
−4
³
1 αρ
−
1 2V+ α
2
´
. (3.104)
Las ra´ıces de P2 son ³
λ2± (ρ) =
− 1+
1 αρ
+
1 2V+ α
´
±
r³
1+
1 αρ
+
1 4ρV+ α2
´2
−4
2
Como por hip´otesis V+ α <
1 4
yρ>
1 2α
³
1 αρ
−
´
1
4α2 ρV
+
.
(3.105)
se tiene
1 1 − 2 < 0, αρ 4α ρV+ por lo tanto las ra´ıces de P1 (c) son reales, una negativa, λ1− (ρ), y la otra positiva λ1+ (ρ). Lo mismo ocurre con P2 (c), tiene una ra´ız negativa, λ2− (ρ) y otra ra´ız positiva, λ2+ (ρ). Entonces P1 (c) ≤ 0 para λ1− (ρ) ≤ c ≤ λ1+ (ρ) ,
(3.106)
P2 (c) < 0 para λ1− (ρ) < c < λ2+ (ρ) .
(3.107)
Adem´as λ2+ (ρ) < λ1+ (ρ) , 117
(3.108)
esto u ´ltimo se sigue de la expresi´on para cada uno de ellos y del hecho que 4α2 ρV+ = 2αρ(2V+ α) > (2V+ α) ya que ρ >
1 . 2α
Tambi´en es f´acil probar que λ1+ (ρ) < 1. As´ı, si tomamos 0 < c(ρ) = < 1 se tiene que, para cualquier 0 < c < c(ρ)
λ1+ (ρ)
P1 (c) ≤ 0 , P2 (c) < 0 , que es lo que dese´abamos demostrar. Resumiendo, con las condiciones de la proposici´on 4, el sistema (3.74) cumple con las condiciones del teorema 5, para cualquier 0 < c < c(ρ). Esto es lo que quer´ıamos demostrar. 1 }, Con la proposici´on 4, hemos demostrado que si V+ α < 14 , ρ > max{φ0 , 2α entonces el sistema (3.74) no puede tener soluciones homocl´ınicas para 0 < c < c(ρ), por lo tanto, la no existencia de ondas viajeras para la ecuaci´on (3.59), cuando tomamos 0 < c < c(ρ). 1 } Ahora pasaremos a analizar qu´e sucede cuando tomamos ρ > max{φ0 , 2α y c(ρ) < c < 1. 1 } el espacio β , Para esto, consideremos, para ρ > max{φ0 , 2α ρ (Ã !
βρ =
à !
φ φ : R −→ R2 : ψ ψ
)
es continua, k φ
k2∞
+kψ
k2∞ ≤
ρ
2
.
Sabemos que βρ es un de Banach. Consideremos la familia de µ³ espacio ´ ¶ φ operadores integrales F ψ , c definida por ÃÃ !
F
!
à !
φ φ ,c = − F1 ψ ψ
ÃÃ !
!
φ ,c , ψ
(3.109)
donde ÃÃ !
F1
! Ã ! V+ Z ∞ φ 0 ,c = G(t − τ, c) dτ . c¯ g 0 (φ(τ ))ψ(τ ) − g¯(φ(τ )) ψ 1 − c2 −∞ (3.110)
118
µ³ ´ ¶ φ ue de βρ a βρ , c debe cumplir con la condici´on ψ , c act´
Para que F
(3.100). De aqu´ı conclu´ımos que aquellos valores de c para los cuales es posible encontrar soluciones homocl´ınicas del sistema (3.74), son los que cumplen λ2+ (ρ) < c < λ1+ (ρ) . As´ı consideremos F : βρ × (λ2+ (ρ), λ1+ (ρ)) −→ βρ definido por (3.109) . ³
φ
´
Como 00 es un punto estacionario del sistema (3.74) para cada 0 < c < 1, tenemos que ÃÃ !
F
!
φ , c = 0 para cada λ2+ (ρ) < c < λ1+ (ρ) . 0 ³³ ´
´
Entonces, si lograramos probar que DF φ00 , c es invertible, y que se cumplen ³³ las otras condiciones del teorema de la funci´on impl´ıcita ³ en ´ un en´ ´ φ0 φ0 torno de , c , se concluir´ıa que existen U, V vecindades de 0 y c res0 pectivamente, tal que para cada c∗ ∈ V , existe una u ´nica L (c∗ ) = tal que ÃÃ !
³ ´ φ ψ
∈U
!
φ , c∗ = 0 , ψ
F ³ ´ φ
pero entonces, ψ ser´ıa una soluci´on acotada en R, no trivial del sistema (3.74) y por lo tanto una soluci´on homocl´ınica del mismo sistema, a la cual le corresponder´ıa una onda viajera de la ecuaci´on (3.59) con velocidad c∗ . As´ı que, en lo que sigue probaremos que el operador integral F con λ1+ (ρ) < c < λ2+ (ρ), cumple con las condiciones del teorema de la funci´on impl´ıcita. ³³ ´ ´ Vamos ahora a calcular la derivada de Frechet de F en ψφ , c con λ1+ (ρ) < c < λ2+ (ρ). Por la forma que tiene F, basta calcular la derivada de Frechet de la funci´on F1 . Adem´as se tendr´ıa que ÃÃ !
DF
!
φ , c = I − DF1 ψ 119
ÃÃ !
!
φ ,c . ψ
(3.111)
³ ´ φ
Para hacer esto, calcularemos las derivadas de Gato de F1 en ψ con res³³ ´ ´ pecto a φ y ψ respectivamente. Denotaremos estas derivadas por δφ F1 ψφ , c , δψ F2
³³ ´ φ ψ
´
, c respectivamente.
Lema 10 Bajo las condiciones de la proposici´ on 4, el³³operador ´ ´ integral F definido en (3.110), es de clase C 1 en un entorno de φ00 , c . Adem´ as la derivada parcial de Frechet de F con respecto a DF
³³ ´ φ ψ
³ ´ φ ψ
´
, la cual denotamos por
, c , viene dada por ÃÃ !
DF con
ÃÃ !
!
φ , c = I − DF1 ψ
!
φ , 0 = δφ F1 ψ
DF1
ÃÃ !
ÃÃ !
!
φ ,c , ψ
!
φ , c + δψ F1 ψ
ÃÃ !
φ ,c ψ
!
(3.112)
y ÃÃ !
!
φ ,c , ψ
δφ F1
ÃÃ !
δψ F1
φ ,c ψ
!
son las derivadas de Gato, con respecto a φ y ψ, respectivamente, las cuales vienen dadas por δφ F1
³³ ´ φ ψ
´
, c (h) =
" ! # Ã t −τ c+1 −V+ e c+1 Z ∞ c+1 e [ c¯ g 00 (φ(τ ))ψ(τ ) − g¯0 (φ(τ ) ]h(τ ) dτ 2 1 + c t 1 "
Ã
!
#
−τ e c−1 Z t c−1 + e c−1 [ c¯ g 00 (φ(τ ))ψ(τ ) − g¯0 (φ(τ )) ]h(τ ) dτ , c + 1 −∞ 1 t
ÃÃ !
δψ F1
!
Ã
(3.113)
!
−τ −V+ c e c+1 Z ∞ c+1 φ c+1 0 , c (k) = e g¯ (φ(τ ))k(τ ) dτ ψ 2 1 + c t 1
+
t c−1
e 1+c
Z t −∞
à −τ
e c−1
t
!
c−1 0 g¯ (φ(τ ))k(τ ) dτ . 1 120
(3.114)
Demostraci´ on. Observemos que F1
³³ ´ φ ψ
´
,c =
t " Ã ! # −τ −V+ e c+1 Z ∞ c+1 c+1 0 e c¯ g (φ(τ ))ψ(τ ) − g¯(φ(τ )) dτ 2 1 + c t 1 "
Ã
!
#
−τ e c−1 Z t c−1 + e c−1 (c¯ g 0 (φ(τ ))ψ(τ ) − g¯(φ(τ )) dτ . c + 1 −∞ 1 t
Calculemos la derivada de Gato de F1 en el punto
³³ ´ φ ψ
aφ ÃÃ !
δφ F1
!
F1 φ , c (h) = lim ²→0 ψ
Ã
−τ c+1 V+ e c+1 Z ∞ c+1 =− lim e ²→0 2 1+c t 1 t
³³
´
φ+²h ψ
´
, c − F1
Ã
³³ ´ φ ψ
dτ
(¯ g 0 (φ(τ ) + ²h(τ )) − g¯(φ(τ )))ψ(τ ) c ²
g¯(φ(τ )) + ²h(τ ) − g¯(φ(τ )) − ²
δφ F1
´
!#
!" Ã
Ã
Entonces
,c
(¯ g 0 (φ(τ ) + ²h(τ )) − g¯0 (φ(τ )))ψ(τ ) c ²
g¯(φ(τ ) + ²h(τ ) − g¯(φ(τ )) − ² t
φ ψ
!" Ã
Ã
−τ e c+1 Z t c+1 c−1 + e c + 1 −∞ 1
´
, c con respecto
³³ ´
²
(3.115)
´
, c (h) = 121
!#
#)
dτ
.
!
!
à ! # " t −τ V+ e c+1 Z ∞ c+1 c+1 00 0 − [c¯ g (φ(τ ))ψ(τ )h(τ ) − g¯ (φ(τ ))h(τ )] dτ e 1 2 1 + c t
+
t 1+c
e 1+c
Z t
"
Ã
De manera similar, se obtiene la derivada de Gato de F1 en respecto a ψ ÃÃ !
δψ F1
#
c−1 [c¯ g 00 (φ(τ )ψ(τ )h(τ ) − g¯0 (φ(τ ))h(τ )] dτ . 1
−τ
e c−1
−∞
!
!
Ã
³³ ´ φ ψ
´
, c con
!
−τ φ V+ c e c+1 Z ∞ c+1 c+1 0 , c (k) = e g¯ (φ(τ ))k(τ )dτ ψ 2 c + 1 t 1 t
!
Ã
−τ c−1 0 e c−1 Z t c−1 g¯ (φ(τ ))k(τ )dτ . + e 1 1 + c −∞ t
Adem´as, δφ F1
³³ ´ φ φ
´
, c , δψ F1
³³ ´ φ φ
´
, c son lineales como funci´on de h y k ³ ´ φ
respectivamente y continuas como funci´on de ψ , se tiene que la derivada de ³ ´ φ Frechet de F1 con respecto a ψ existe y se puede calcular con la expresi´on (3.112). ³³ ´ ´ Tambi´en es f´acil probar que DF ψφ , c es continua en un entorno de
(
³ ´ φ ψ ,c
).
Lema 11 Bajo las condiciones de la proposici´ on 4, DF erador invertible. Demostraci´ on. Como
ÃÃ
DF
!
!
φ0 , c = I − DF1 0 122
ÃÃ
!
!
φ0 ,c , 0
³³ ´ φ0 0
´
, c es un op-
basta probar que
Evaluando (3.112) en ÃÃ
DF1
!
φ0 ,c 0
° ÃÃ ! !° ° ° φ0 ° °DF1 , c °° < 1 . ° ° 0 ³³ ´ ´ φ0 0
!Ã !
h = δφ F1 k
, c obtenemos
ÃÃ
!
!
φ0 , 0 (h) + δψ F1 0
ÃÃ
!
!
φ0 , c (k) , (3.116) 0
entonces ° ÃÃ ! ! Ã !° ° φ0 h °° ° °DF1 ,c ° ° 0 k °
∞
° ° ° ° ÃÃ ! ! ÃÃ ! ! ° ° ° ° φ0 φ0 ° ° ° ≤ °δφ F1 , c (h)° +°δψ F1 , c (k)°° ° ° ° ° 0 0 ∞
. ∞
(3.117)
Obtengamos estimados para ° ÃÃ ! !° ° ° φ0 ° °δφ F1 , c °° ° ° 0
,
∞
Evaluando (3.113) en δφ F1
³³ ´ φ0 0
´
³³ ´ φ0 0
° ÃÃ ! !° ° ° φ0 ° °δψ F1 , c °° ° ° 0
.
∞
´
, c obtenemos
, c (h) =
!
Ã
Ã
!
−τ −τ e c−1 Z t c−1 c+1 c−1 V+ g¯(φ0 ) e c+1 Z ∞ c+1 h(τ )dτ + h(τ )dτ − e e c + 1 t 1 1 2 1 + c −∞
t
Ã
t
!
Ã
!
−τ −τ c+1 e c−1 Z t c−1 c−1 V+ c¯ g 0 (φ0 ) e c+1 Z ∞ c+1 k(τ )dτ − k(τ )d(τ ) , + e e c + 1 t 2 1 c + 1 −∞ 1 t
t
entonces ° ° ÃÃ ! ! ° ° φ ° ° , c (h) ° °δφ F1 ° ° 0
∞
√
t −τ V+ g¯ (φ0 ) √ 2 e c+1 Z ∞ c+1 ≤ c + 2c + 2 e dτ k h k∞ 2 c+1 t 0
+ c2 − 2c + 2
t c−1
e 1+c
Z t −∞
123
τ
e c−1 dτ k h k∞
.
Calculando las integrales impropias y simplificando ° ° ÃÃ ! ! ° ° φ0 ° °δφ F1 , c (h)°° ° ° 0
≤ ∞
´ √ V+ g¯(φ0 ) ³√ 2 c + 2c + 2 + c2 − 2c + 2 k h k∞ . 2
Para 0 < c < 1 se tiene que √ √
c2 + 2c + 2 es creciente,
c2 + 2c − 2 es decreciente.
As´ı se tiene que ° ° ÃÃ ! ! ° ° φ0 ° °δφ F1 , c (h)°° ° ° 0
√ ´ V+ g¯0 (φ0 ) ³√ 5 + 2 k h k∞ . 2
(3.118)
√ ´ V+ g¯0 (φ0 )c ³√ 5 + 2 k k k∞ . 2
(3.119)
≤
∞
De manera similar se obtiene ° ° ÃÃ ! ! ° ° φ0 ° ° °δψ F1 , c (k)° ° ° 0
≤ ∞
Sustituyendo (3.118), (3.119) en (3.117), obtenemos ° ÃÃ ! ! Ã !° ¶ ° ³√ √ ´ µq φ0 h °° V+ g¯0 (φ0 ) ° 2 2 (1 + c) 5 + 2 k h k∞ + k k k∞ . °DF1 ,c °≤ ° 2 k ° 0
Como 0 < c < 1 y V+ α <
1 4
obtenemos
° ÃÃ ! ! Ã !° ° φ0 h °° ° °DF ,c ° < 1, ° k ° 0
que es lo que quer´ıamos probar. Finalmente, tenemos el siguiente teorema.
124
Teorema 6 Supongamos que en el sistema (3.74), la funci´on g¯ tiene la forma 1 g¯(φ) = , α, β > 0 1 + e−αφ+β 1 y que αV+ < 14 . Entonces para cada ρ > max{φ0 , 2α }, existen c1 (ρ), c2 (ρ) con 0 < c1 (ρ) < c2 (ρ) < 1, tales que, para cada c, que cumpla 0 < c < c1 (ρ), la u ´nica soluci´on acotada de³este sistema, contenida en la bola cerrada β[0, ρ], ´ φ0 es la soluci´on estacionaria 0 . Mientras que, para cada c, con c1 (ρ) ≤ c ≤ c2 (ρ), existe una soluci´on acotada, no trivial, del sistema, la cual tambi´en es una soluci´on homocl´ınica, y a la que le corresponde una onda viajera de la ecuaci´ on (3.59) con velocidad v. La velocidad real de traslaci´ on de esta onda viajera es cV+ . Adem´ as c1 (ρ), c2 (ρ) son las ra´ıces positivas de los polinomios cuadr´aticos definidos en (3.100), (3.101).
Demostraci´ on. La existencia de c1 (ρ), fue demostrada en la proposici´on 4. Por los lemas 10 y 11 el operador integral F definido en (3.101) cumple con ³³las´ condi´ ciones del teorema de la funci´on impl´ıcita en un entorno de φ00 , c , es decir, F
³³ ´ φ ψ
´
, c es de clase C 0 en un entorno de
³³ ´ φ0 0
´
,0 , F
³³ ´ φ0 ³0
´
,c = 0 y
´ φ0 0 ³ y´ c resφ pectivamente tales que, para cada c∗ ∈ V , existe un u ´nico elemento ψ ∈ U
DF
³³ ´ φ0 0
´
, c es invertible. Entonces existen entornos U y V de
no trivial tal que
ÃÃ !
F
!
φ , c∗ = 0 . ψ
³ ´ φ
Entonces ψ es una soluci´on no trivial, acotada de (3.80) y por el teorema ³ ´ φ 3, ψ es una soluci´on acotada, no trivial del sistema (3.74), la cual, por el lema 6, es una soluci´on homocl´ınica del sistema (3.74). 3.4 ONDAS ESTACIONARIAS EN LA CORTEZA CEREBRAL.
125
En esta secci´on estudiaremos las oscilaciones peque˜ nas –con la misma frecuencia angular w para cada x ∈ R– de la ecuaci´on ∂2u ∂t2
2
2 ∂ u + 2λ+ v+ ∂u + (λ+ v+ )2 u − v+ = ∂t ∂x2
h
V+ λ+ v+ λ+ v+ g¯(u) + g¯0 (u) ∂u ∂t
i
(3.120)
alrededor de un estado de reposo de la misma (una soluci´on u(x, t) ≡ u0 ). Este problema corresponde a considerar una banda circular de ancho infinitamente peque˜ no de corteza cerebral. Lo que queremos saber es si en nuestro modelo existen ondas estacionarias que se correspondan con los ritmos b´asicos del cerebro. Para estudiar este problema consideraremos una soluci´on u(x, t) ≡ u0 de la ecuaci´on (3.120). Tomaremos la parte lineal de esta ecuaci´on alrededor de u0 y en la ecuaci´on lineal buscaremos soluciones de la forma u(x, t) = u0 + L(x)eiwt , con L(x) una funci´on peri´odica real, de periodo 2π y L(x) peque˜ no.
126
(3.121)
Observaci´ on. En realidad, lo que buscamos son soluciones de la ecuaci´on lineal de la forma u(x, t) = u0 + A(x) cos wt donde A(x) es una funci´on peri´odica real, de periodo 2π. Pero como se tiene una ecuaci´on lineal, basta encontrar soluciones de la forma (3.121) y despu´es tomar la parte real de estas soluciones. Ahora, si u(x, t) ≡ u0 es una soluci´on de (3.120) la “parte lineal” de esta ecuaci´on alrededor de u0 es 2 ¯ ∂ 2 u¯ ∂ u¯ 0 2 0 2 ∂ u + λ v (2 − V g ¯ (u )) + [(λ v ) (1 − V g ¯ (u ))]¯ u − v =0 + + + o + + + 0 + 2 ∂t ∂t ∂x2 (3.122) donde
u¯ = u − u0
Teorema 7 Sea u0 ∈ (0, V+ ) tal que, g¯0 (u0 ) = V2+ , supongamos adem´as que 1 − λ2+ > 0. Entonces la ecuaci´ on (3.122) tiene soluciones de la forma u¯(x, t) = L(x)eiwt , con L(x) una funci´on peri´ odica real, de periodo 2π. M´as concretamente, si µq
w = v+
¶
1−
λ2+
,
(3.123)
u¯(x, t) = A1 cos xeiwt
(3.124)
entonces con A1 constante, es una soluci´on de (3.122).
127
Observaci´ on 2 , v+
Como g¯0 (u0 ) =
esto nos garantiza que
u(x, t) ≡ u0 es soluci´on de la ecuaci´on (3.120). Demostraci´ on. Sea w como en (3.123). Obtengamos las derivadas de (3.124) ∂u ¯ ∂t
= (iw)A1 cos xeiwt ,
∂2u ¯ ∂t2
= −w2 A1 cos xeiwt ,
∂u ¯ ∂x
= −A1 sen xeiwt ,
∂2u ¯ ∂x2
= −A1 cos xeiwt .
Sustituyendo estas derivadas en la ecuaci´on (3.122) obtenemos −w2 A1 cos xeiwt + λ+ v+ (2 − V+ g¯0 (u0 ))iwA1 cos xeiwt 2 +[(λ+ v+ )2 (1 − V+ g¯0 (u0 )]A1 cos xeiwt + v+ A1 cos xeiwt = 2 2 (λ2+ − 1)v+ A1 cos xeiwt + (λ+ v+ )2 A1 cos xeiwt + v+ A1 cos xeiwt = 0 ,
ya que g¯0 (u0 ) =
2 V+
q
y w = v+ 1 − λ2+ .
128
CONCLUSIONES. El principal modelo que hemos estudiado, a pesar de ser un modelo que tiene algunas simplificaciones importantes : modelo unidimensional sin curvatura, considerar una distribuci´on de conexiones que depende u ´nicamente de la distancia entre columnas y con escalas de decrecimiento que no dependen de las regiones corticales consideradas, las complicaciones intra e intercorticales est´an incluidas en las funciones R± , no tomar en cuenta expl´ıcitamente la actividad neuroqu´ımica, etc., nos ha permitido obtener un conjunto de resultados que pueden ser sujetos a ser estudiados experimentalmente y que en principio coinciden cualitativamente con algunos datos experimentales ya conocidos. Se debe destacar la relativa simplicidad del modelo obtenido y la posibilidad inmediata de incluir, aunque sea parcialmente, algunos elementos no considerados en el modelo principal como por ejemplo, escalas de decrecimiento que dependan de las regiones de corteza considerada, que la funci´on de generaci´on de potenciales de acci´on g¯ dependa de la columna y de la funci´on de activaci´on (ver el modelo de la secci´on 2.8) adem´as de la posibilidad de construir un modelo matem´atico bidimensional de la corteza cerebral que adem´as incluya, aunque sea parcialmente, la geometr´ıa real de la corteza cerebral. Obviamente el estudio matem´atico de este problema resulta mucho m´as complejo. Consideramos que todo lo anteriormente enunciado, son los elementos m´as valiosos de la tesis. La inclusi´on en el modelo de la actividad neuroqu´ımica nos parece que es un problema sumamente complejo pero en primera aproximaci´on, considerando que la liberaci´on de neurotransmisores es proporcional a la actividad sin´aptica, podr´ıa ser incluida en el mismo. A continuaci´on enlistamos las principales conclusiones de nuestro trabajo. 1. En este trabajo se han continuado desarrollando las ideas de Nu˜ nez, [86], [87], [89], [92], en al menos dos direcciones : se han introducido modificaciones y agregado nuevos elementos al modelo. Adem´as el tratamiento matem´atico del modelo ha sido diferente y m´as completo que el que le di´o Nu˜ nez. 2. En cuanto a resultados, se ha demostrado, que bajo ciertas condiciones,(teorema 6) existen ondas viajeras de actividad cortical que se propagan por la corteza cerebral con una velocidad de propagaci´on menor que la velocidad de propagaci´on de la actividad excitatoria. 129
Tambi´en se ha demostrado,(teorema 2) que la actividad cortical de una rebanada de corteza se puede acoplar con la de una entrada aferente peri´odica sostenida. Esto ha sido demostrado experimentalmente [25], [78]. Adem´as en estos trabajos tambi´en se concluye, experimentalmente, el papel controlador de la actividad inhibitoria en la corteza. Lo cual probamos en el teorema 3. 3. Los resultados obtenidos,(teorema 2, 6, 7) corresponden a estados fisiol´ogicos muy especiales, ´esto u ´ltimo se refleja en las restricciones impuestas a la funci´on de activaci´on neuronal. Consideramos que es necesario estudiar, posteriormente, la significaci´on fisiol´ogica de estas restricciones. 4. Hemos obtenido un modelo (secci´on 2.8), que en conjunto con estudios del problema inverso electroencefalogr´afico, nos permitir´a estudiar, posteriormente, el diagrama de conexiones funcionales y de la funci´on de activaci´on neuronal en un estado fisiol´ogico determinado. 5. El modelo compartimentado (2.8) puede ser usado para el estudio de otros sistemas del cerebro, como el sistema de los ganglios basales y el sistema l´ımbico. 6. Posteriormente ser´a necesario realizar simulaciones computacionales de las soluciones del modelo con diversos valores de los par´ametros involucrados y compararlos con mediciones experimentales.
130
Bibliograf´ıa [1] Abbott, L. F. [1990] : A network of oscillators, J. Phys. A. Math. Gen. 23 : 3835-3859. [2] Abbot, L. F., F., Kepler, T. B. [1990] : Model neurons from Hodgkin-Huxley to Hopfield In : Garrido (ed) Statistical mechanics of neural networks. Springer, Berlin, Heidelberg, New York. [3] Abeles, M. [1982] : Local Cortical Circuits in Studies in Brain Function 6, Springer Verlag, New York. [4] Amick, C, J, [1991] : A problem in neural networks. Proceedings of the Royal Society of Edinburgh. 118 : 225-236. [5] Amari, S. [1972] : Competitive and cooperative aspects in dynamics of neural excitation and self-organization, IEEE Trans on computers. [6] Amari, S. [1982] : A mathematical theory of self-organizing nerve sytems. In Proceedings of Biomathematics : Current Status and Perspectives. Ricciardi, L. M., Scott, A., ed. [7] Amari, S., Arbib, M. A (eds) [1982] : Competition and Cooperation in Neural Networks, Springer Verlag, New York. [8] Amari, S., Takeuchi, A. [1978] : Mathematical theory on formation of category detecting nerve cells. Biol. Cybernetics 29. 127-136. [9] Amir, A. [1994] : Uniqueness of the generators of brain evoked potential maps, IEEE Trans. on Biomedical-Engineering. Vol. 41,no.1-11. 131
[10] Andersen, P., Andersson, S.A. [1968] : Physiological basis of the alpha rhytm. Appleton-Century-Crofts, New York. [11] Anderson, J. A., Rosenfeld, E. [1988] : Neurocomputing Foundation of Research. Cambridge. The M.I.T. Press. [12] Beale, R.,Jackson, T. [1994] : Neural Computing : An Introduction, Institute of Physics Publishing, Bristol and Philadelphia. [13] Baumg¨artel, H. [1985] : Analytic Perturbation Theory for Matrices and Operators. Birkh¨auser Verlag Basel. Boston-Stuttgart. [14] Bogacz, J. y colaboradores. [1985] : Los potenciales evocados en el hombre. Ateneo, Buenos Aires. [15] Bower, J. M. [1992] : Modeling the nervous system. Trends in Neuroscience 15 : 411-412. [16] Buchholtz, F., Golowasch, J., Epstein, I. R., Marder, E. [1992] : Mathematical model of an identified stomatogastric neuron. J.Neurophysiol. 67 : 332-340. [17] Cardinali, D. P. [1992] Manual de Neurofisiolog´ıa. Ediciones D´ıaz de Santos, S.A. Madrid, Espa˜ na. [18] Chauvet, G. A. [1993a] : Non-locality in biological systems results from hierarchy. Application to nervous system. Journal Math. Biol. 31. 475-486. [19] Cichocki, A., Unbehauen, R. [1993] : Neural Networks for Optimazation and Signal Processing, John Wiley, New York. [20] Coro, F. [1996] : Fisiolog´ıa Celular, Un enfoque biof´ısico, Textos Cient´ıficos , BUAP, Puebla. [21] Cronin, J. [1987] : Mathematical aspects of Hodgkin-Huxley neural theory, Cambridge University Press. [22] Cuffin, B.N. [1987] : The role of model and computacional experiments in the biomagnetic inverse problem.Phys.Med.Biol. 132
[23] Daleckii, Ju. L., Krein, M. G. [1974] : Stability of Solutions of Differential Equations in Banach Space. American Mathematical Society, Providence, Rhode Island. [24] Destexhe, A., Contreras, D., Sejnowski, T. J., Steriade, M. [1994] : A model of spindle rhytmicity in the isolated thalamic reticular nucleus. Journal of Neurophysiology. Vol. 72, No. 2. 803-1818. [25] Dickson, C. T., Alonso, A [1997] : Muscarinic induction of Synchronous population activity in the entorhinal cortex. Journal of Neuroscience. 17 (17:6729-6744). [26] Doya, K., Selverston, A.I. [1993] : Dimension reduction of biological neuron models by artificial neural networks, Neural Comp. Vol. 6 no. 4 : 697-717. [27] Farkas, Miklos. [1994] : Periodics Motions, Springer Verlag, New York. [28] Fitzhugh, R. [1961] : Impulses and physiological stages in theoretical models of nerve membrane. Biophys, J. 1 : 445-466. [29] Fitzhugh, R. [1969] : Mathematical models of excitation and propagation in nerve. In Biological Engineering H.P. Schwann.Mc Graw Hill Publications, New York. [30] Flores, G. [1991] : Stability Analysis for the Slow Traveling Pulse of the Fitzhugh-Nagumo System, Siam J. Math. Anal. Vol. 22, no. 2, 392-399. [31] Freeman J. A., Skapura, D.M. [1993] : Redes Neuronales. Algoritmos, aplicaciones y t´ecnicas de programaci´on. Addison-Wesley Iberoamericana Wilmington, Delaware. U.S.A. [32] Freeman, W.J.[1975] : Mass Action in the Nervous System, Academic Press, New York. [33] Freeman, W.J. [1979] : Nonlinear dynamics of paleocortex manifested in olfactory EEG, Biological Cybernetics. 35 : 21-37.
133
[34] Freeman, W. J. [1992] : Predictions on neocortical dynamics derived from studies in paleocortex. In : Induced rhythms of the brain, ed. E.Basar, T. H. Bullock. Birkhauser Boston Inc. 183-201. [35] Freeman, W. J. [1994] : Neural mechanisms underlying destabilization of cortex by sensory input. Physica D 75 : 151 - 64. [36] Fukushima, K. [1975] : Cognitron : a self organizing multilayered neural network, Biolog. Cybernetics. Vol. 20 : 121-136. [37] Fukushima, K. [1980] : Neocognitron : a self organizing neural network model for a mechanism of pattern recognition unaffected by shift in position, Biolog. Cybernetics. Vol. 36,193-202. [38] Galusinski, C. [1998] : Existence and Continuity of Uniform Exponential Attractors of the Singularity Perturbed Hodgkin-Huxley System. Journal of Differential Equations. 144 : 99-169. [39] Golomb, D., Guckenheimer, J., Gueron, S. [1993] : Reduction of a Channel Based Model for a Stomatogastric Ganglion LP Neuron. Biol. Cybern. 68 : 129-137. [40] Golomb, D., Rinzel, J. [1993] : Dynamics of globallly coupled inhibitory neurons with heterogeneity., Physical Review. E. Vol. 48,no. 6. [41] Golomb, D., Rinzel, J. [1994] : Clustering in globally coupled inhibitary neurons. Physics D. 72 : 259-282. [42] Golomb, D., Wang, X. J., Rinzel, J. [1994] : Synchronization Properties of Spindle Oscillations in a Thalamic Reticular Nucleus Model. J. Neurophysiology. Vol. 72, no.3, 1109-1126. [43] Grossberg, S. [1976] : Adaptative pattern classification and universal recording. Biolog. Cybernetics. Vol. 23 : 121-134 y 187-202. [44] Guckenheimer, J., Holmes, P. [1983] : Nonlinear oscillations dynamical systems, and bifurcations of vector fields. Springer, Berlin, Heidelberg, New York.
134
[45] Hale, J. K. [1963] : Oscillations in Nonlinear Systems. Dover, New York. [46] Hale, J. K. [1969] : Ordinary Differential Equations. Wiley Interscience. New York, London, Sydney, Toronto. [47] Hale, J. ; Kocak, H. [1991] : Dynamics and Bifurcations, Springer Verlag, New York. [48] Hastings, S. [1975/1976] : On traveling wave solutions of the Hodgkin-Huxley equations, Arch. Rational Mech. Anal. 60 : 229257. [49] Hastings, S. [1976] : On existence of homoclinic and periodic orbits for the Fitzhugh-Nagumo equations,Quart J. Math.27 : 123-134. [50] Hebb, D. O. [1949] : The organization of behavior. Wiley, New York. [51] Heiner, L. ; Z´aborszky, L. [1989] : Neuroanatomical Tract–Tracing Methods 2. Plenum Press. New York and London. [52] Heller, L. [1990] : Return Current in encephalography Variationals Principles, Biophysical Journal. Vol. 57 : 601-606. [53] Herman G. T. [1980] : Image reconstruction from projections. The fundamental of computerized tomography. Academic Press. [54] Herman G. T., Tuy H. K., Langenberg K. J., Sabatier P.C. [1985] : Basic methods of tomography and inverse problems. Malvern Physics Series. [55] Hilera, J. R., Mart´ınez, V. J. [1995] : Redes neuronales artificiales. Fundamentos, modelos y aplicaciones. Addison-Wesley Iberoamericana. Madrid, Espa˜ na. [56] Hinton, G. Ackley, D. Sejnowski, T. [1984] : Boltzman machines : Constraint satisfaction networks than learn. Carnegie-Mellon University, Departament of Computer Science Technical Report. (CMU-CS-84-119). 135
[57] Hodgkin, A. L. ; Huxley, A.F. [1952] : A quantitative description of membrane current an its application to conductance and excitation in nerve, J. Physiol. Lond.117 : 500-544 [58] Holden, A. V., Hyde, J., and Muhamad, M. A. [1991] : Equilibria, Periodicity, Bursting and Chaos in Neural Activity, in Pasemann, F., and Doebner, H. D. (eds), World Scientific Pub., Singapore : 97-187. [59] Hopfield, J. J. [1982] : Neural networks and physical systems with emergent collective computational abilities, Proc. Natl.Acad.Sci. 79 : 2554-58. [60] Hopfield, J. J [1984] : Neurones with graded response have collective computational propierties like those of two states neurones. Proccedings of National Academy of Science. 81 : 3088-92 [61] Hoppensteadt, F. [1986] : An Introduction to the Mathematics of Neurons, Cambridge University Press. [62] Hoppensteadt, F.C. [1993] : Analysis and Simulation of Chaotic Systems, Springer Verlag, New York. [63] Hoppensteadt, F., Izhikevich, E. M. [1997] : Weakly Connected Neural Networks. Springer Verlag. New York, Inc. [64] Ingber, L. ; Nu˜ nez P. [1990] : Multiple scales of statistical physics of Neocortex. Aplication to the Electroencephalography. Mathematical and Computer Modelling. [65] Ingber, L. [1991] : Statistical mechanics of neurocortical interactions : A scaling paradigm applied to electroencephalography., Physical Review. A 44 : 4017-60. [66] Ingber, L. [1994] : Statistical Mechanics of Multiple Scales of Neocortical Interactions. [67] Ingber, L. [1994] : Statistical Mechanics of Neocortical Interactions. : Path-integral evolution of Short-term memory. Physical Review E 49 : 4652-64. 136
[68] Ingber, L. [1995] : Statistical mechanics of multiple scales of neocortical interactions. In : Neocortical dynamics and human EEG. rhythms, ed. P.L. Nu˜ nez. Oxford University Press. [69] Jahnsen, H. ; Llinas, R. [1984a] : Electrophysiological properties of guinea-pig thalamic neurons : An in vitro studio. J. Physiol. (London). 349 : 205-226. [70] Jahnsen, H. ; Llinas, R. [1984b] : Ionic basis for the electroresponsiveness and oscillatory properties of guinea-pig thalamic neurons in vitro. J. Physiol. (London) 349 : 227-2447. [71] Kandel, E. R., Schwartz, J. H. ; Jessell, T. M. [1997] : Neurociencia y conducta. Prentice Hall. Madrid. [72] Katznelson, R. D. [1981] : Normal modes of the brain : Neuroanatomical basis and a physiological theoretical model. In : Electric fields of the brain : The Neurophysics of EEG. P.L. Nu˜ nez. Oxford University Press. New York. [73] Kepler, T. B., Abbot, L. F., Marder, E. [1992] : Reduction of conductance based neuron models. Biol. Cybern. 66 : 381-387. [74] Kevorkian, J., Cole, J. D. [1996] : Multiple Scale and Singular Perturbation Methods, Springer-Verlag, New York, Inc. [75] Lopes da Silva, F. H. [1991] : Neural mechanisms underlying brain waves : From neural membranes to networks electroencephagr. Clin. Neurophysiol. 79 : 81-93. [76] Lopes da Silva, F. H., van Rotterdam, A., Barts, P., van Heusden, E., Burr, B. [1976] : Models of neurones populations the basic mechanism of rhytmicity. Progress in Brain Research. 45 : 282308. [77] Lopes da Silva, F. A. ; Hoeks, A., Smiths, H. and Zettergerg L. H. [1974] : Model of Brain Rhytmic Activity, Kybernetik. 15 : 27-37. [78] Lukatch, H. S.; Mac Iver, B. [1997] : Physiology, Pharmacology and Topography of cholinergic neocortical oscillations in vitro. Journal of Neuroscience. 2427-2444. 137
[79] Mac. Gregor, R. J. [1987] : Neural and Brain Modeling. Academic Press, Inc. San Diego. Cal. [80] Mc Culloch, W. S. ; Pitts, W. H. [1943] : A logical calculus of ideas immanent in nervous activity, Bull. Math. Biophys. 5 : 115-33. [81] Menon, V. [1991] : Population oscillations in neuronal groups. International Journal of Neural Systems. Vol. 2, no. 3, 237-62. [82] Mischenko, E. F.; Rozov, N. Kh. [1980] : Differential Equations with Small Parameters and Relaxation Oscillations, Plenum, New York. [83] Mountcastle, V. B. [1978] : An organizing principle for cerebral function : the unit module and the distributed system. In : The Mindful Brain : Cortical Organization and the Group Selective theory of Higher Function, ed. G. M. Edelman and V. B. Mountcastle. MIT Press, Cambridge. [84] Mountcastle, V. B. [1998] : Perceptual Neuroscience the Cerebral Cortex. Harvard University Press. Cambridge, Massachusetts, and London, England. [85] Natterer, F. [1986] : The mathematics of Computerized Tomography. Teubner, Stuttgart. [86] Nu˜ nez, P. L. [1981] : A study of origins of the time dependencies of scalp EEG : I. Theoretical basis, IEEE Trans. Bio-Med Eng. 28 : 271-280, 1981b. [87] Nu˜ nez, P. L. [1981] : A study of origins of the time dependencies of scalp EEG: II. Experimental support of theory,IEEE Trans. BioMed Eng. 28 : 281-288, 1981c. [88] Nu˜ nez, P. L. [1988] : Global Contribution to cortical dynamics : theoretical and experimental evidence for standing waves phenomena. In : Dynamics of Sensory and Cognitive Processing by the Brain. (E. Baser, Ed.). Springer Verlag. New York.
138
[89] Nu˜ nez, Paul L; Katznelson, R. D. [1981] : Electric Fields on the Brain, the Neurophysics of EEG, Oxford University Press, New York. [90] Nu˜ nez, P. [1989] : Generation of Human EEG by a combination of long and short range neurocortical interactions, Brain topography. 1 : 199-215. nez, P., Srinivasan, R. [1993] : Implications of recording [91] Nu˜ strategy for estimates of neurocortical dynamics with electroencephalography chaos. 3 : 257-66. [92] Nu˜ nez, P. L. [1995] : Neocortical Dynamics and Human EEG Rythms, Oxford University Press. [93] Plonsey, R. [1969] : Bioelectric Phenomena, Mc Graw Hill, New York. [94] Petsche, H., Sterc, J. [1968] : The significance of the cortex for the traveling phenomenon of brain waves. Electroencephalography and Clinical Neurophysiology. 25 : 1222. [95] Rall, W., Shepherd, G. M. [1968] : Theoretical reconstruction of field potentials and dendrodendritic synaptic interactions in olfactory bulb. J. Neurophysiol. 31 : 884-915. [96] Ramacher, U. [1993] : Hamiltonian Dynamics of Neural Networks. Neural Networks. 6 : 547-557. [97] Rinzel, J. ; Ermentrout, G. B. [1989] : Analysis of neural excitability and oscillations. In Methods of neural Modelling : From Synapses to networks (C. Koch and I. Segev. Eds), Cambridge, MA : MIT Press. [98] Rosenblatt, F. [1957] : The perception a perceiving and recognizing automation, , Cornell Aeronautical Laboratory Report. [99] Rose, R. M. ; Hindmarsh, J. L. [1985] : A model of a thalamic neuron, Proc. R. Soc. Lond.
139
[100] Rush, M. E., Rinzel, J. [1994] : Analysis of bursting in a thalamic neuron model. Biol. Cybern. 71, 281-291. [101] S´anchez, F., Maini, P. K. [1997] : Travelling wave phenomena in non-linear diffusion degenerate Nagumo equations. Journal of mathematical biology, 35 : 713-728. [102] S´anchez, F., Maini, P. K. [1997] : Travelling wave phenomena in some degenerate reaction diffusion equations. Journal of differential equations. Vol. 117, no. 2 : 281-319. [103] Sarvas, J. [1987] : Basic Mathematical and Electromagnetic Concepts of the Biomagnetic Inverse Problem. Phys. Med. Biol. Vol.32, no.1 : 11-22. [104] Silberstein, R. B. [1994] : Neuromodulation of neocortical dynamics. In : Neocortical dynamics and human EEG rhythms. ed. P. L. Nu˜ nez. Oxford University Press. [105] Silberstein, R. B. [1994] : Steady-State Visually Evoked Potentials, Brain Resonances, and Cognitive Processes In : Neocortical dynamics and human EEG rhythms. ed. P. L. Nu˜ nez. Oxford University Press. [106] Smith, C. U. M. [1982] : El cerebro. Sexta ed. Alianza Universidad Madrid. [107] Somogyi, P. ; Tam´as, G. ; Lujan, R., Buhl, E. [1998] : Salient features of synaptic organisation in the cerebral cortex. Brain research reviews, 26 : 113-135. [108] Temam, R. [1998] : Infinite-Dimensional Dynamical Systems. 2 ed. Springer Verlag, New York, Berlin, Heidelberg. [109] Tijonov A.N., Goncharsky A.V. [1987] : Problemas mal planteados de las ciencias naturales. (Editorial de la Universidad Estatal de Mosc´ u). [110] Tikhonov, V. S. [1985] : Differential Equations. Springer Verlag. Berlin , Heidelberg. 140
[111] Troy, W. C. [1978] : The bifurcation of periodic solutions in the Hodgkin-Huxley equations. Quart. Appl. Math., Vol. 36, 73-83. [112] Tyson, J. J. ; Keener, J. P. [1988] : Singular Perturbation Theory of Traveling Waves in Excitable Medic (a review). Physica.D 32 : 327-361. [113] van Rotterdam, A., L´opes da Silva, F. H., van den Ende, J., Viergeuer, M. A., Hermans, A. J. [1982] : A model of the spaticaltemporal characteristics of the alpha rhytm. Bull. Math. Biol. 4e : 283-305. [114] Wang, X. J. ; Rinzel, J.[1993] : Spindle rhythmicity in the reticularis thalami nucleus : synchronization among mutually inhibitory neurons. Neuroscience. 53 : 899-904. [115] Wang, X. J. [1994] : Multiple dynamical modes of thalamic relay neurons : Rhythmic bursting and intermittent phase-locking. Neuroscience. Vol. 59, no.1, 21-31. [116] Weiss, T. F. [1996] : Celular biophysics, Vol. 1, Transport. MIT Press, Cambridge, MA. [117] Weiss, T. F. [1996] : Celular biophysics, Vol. 2, Electrical properties. MIT Press, Cambridge, MA. [118] Widrow, B., Hoff, M. [1960] : Adaptative Switching Circuits IREWESCON Convention Record, Part 4, 96-104. [119] Wilson, H. R., Cowan, J. D. [1972] : Excitatory and inhibitory interaction in localized populations of model neurons. Biophys. Journal 12. 1-24. [120] Wilson, H. R., Cowan, J. D. [1973] : A mathematical theory of the functional dynamics of cortical and thalamic nervous tissue. Kybernetik 13. 13-80. [121] Wright, J.J. ; Liley, T. J. [1996] : Dynamics of the Brain at Global and Microscopic scales : Neural Networks and the EEG, Behavioral and the brain sciences. 19 : 285-320. 141