Anda di halaman 1dari 0

CONVERGENCI A Y ESTABI LI ZACI ON

NEURODI NAMI CA DE LAS FUNCI ONES DE


APRENDI ZAJ E, PRESENTADAS A LA LUZ
DEL NUEVO CONEXI ONI SMO



Fabio Enrique Martnez Ceballos
Documento monogrfico presentado con el fin
de culminar el ciclo de estudios acadmicos en Psicol oga





Pr. Telmo Eduardo Pea Correal (Asesor)






Universidad Nacional de Colombia
Facultad de Ciencias Humanas
Departamento de Psicologa
2000


Convergencia y estabilidad de las funciones de aprendizaje


2




























...Die mden Menschen gehn heimwrts,
um im Schlaf vergenes Glck und Jugend neu
zu lernen!
(Los hombres cansados regresan al hogar, para de nuevo aprender en el
sueo de la felicidad y juventud olvidadas!)
G. Mahler, en La Cancin de la Tierra






FABIO E. MARTINEZ C.

3

Resumen

En este trabajo, se hace una reflexin terica del concepto de estabilidad
utilizado en el conexionismo, y su relacin con el paradigma computacional del
aprendizaje. La idea central que se quiere expresar a travs del texto asume que las
funciones de aprendizaje planteadas por el conexionismo convergen hacia estados de
equilibrio dinmicamente estables. Segn el argumento expuesto, las variables de
estado conexionistas neurodinmicamente representadas por una vasta matriz de
pesos sinpticos (W) se aproximan, o convergen, hacia estados atractores estables
cuando son modificadas por algn procedimiento de aprendizaje basado en la
correccin del error. En particular, se propone que, asumiendo el principio de
minimizacin del error formulado en la teora computacional de Vapnik-
Chervonenkis-Valiant, puede determinarse un atractor global en las funciones
conexionistas de aprendizaje. Para bosquejar estas ideas se har primero una
revisin de los fundamentos conceptuales de la teora computacional del aprendizaje,
para luego exponer las caractersticas principales del estudio neurodinmico que se
ha hecho de las funciones neuronales. En un captulo posterior estas nociones sern
empleadas para exponer el razonamiento central que subyace la elaboracin terica
presentada en este escrito. Finalmente, se expondr una reflexin sobre la forma en
que las teoras computacionales del aprendizaje natural y artificial (o aprendizaje de
mquina) pueden contribuir a la comprensin de las propiedades funcionales de alto
nivel que subyacen a los fenmenos de plasticidad cerebral y desarrollo
neurocognitivo.
Paralelamente a la discusin del modelo neurodinmico del aprendizaje, se
pretende mostrar a lo largo de los prrafos subsiguientes las contribuciones y los
alcances que ha tenido el desarrollo conceptual del Paradigma Conexionista en el
estudio, anlisis y diseo de modelos tericos que tienen la capacidad de adaptarse
dinmicamente a condiciones ambientales de alta complejidad, y que pueden ser
descritos computacionalmente como procesos de auto-organizacin y aprendizaje.

faviolin@yahoo.com
Copyright 2000
Convergencia y estabilidad de las funciones de aprendizaje


4






TABLA DE CONTENI DO

1. Definicin de Smbolos ........................................................ 5
2. Introduccin ......................................................................... 6
3. Teora Computacional del Aprendizaje ............................... 16
4. Neurodinmica y Conexionismo .......................................... 30
5. Aprendizaje, Plasticidad y Estabilidad ................................. 46
6. Discusin y Aportes a la Ciencia Cognitiva ......................... 57
7. Eplogo .................................................................................. 73
8. Anexo: frmulas y ecuaciones ............................................ 74
9. Bibliografa ........................................................................... 75
FABIO E. MARTINEZ C.

5
DEFI NI CI ON DE SI MBOLOS
(cdigos de navegacin)
x Cualquier dato de entrada o vector patrn (o ejemplo) que ingresa
proveniente de fuentes externas (informacin aferente)
X Conjunto de todos los datos x (espacio muestra de ejemplos)
w Variables de estado, o parmetros libres de un modelo terico
W Matriz de parmetros libres y en un sentido estricto, un espacio
vectorial cuyas dimensiones son generadas por las variables w
F(x, W) Cualquier funcin de transformacin que depende de xy W
y Datos de salida (informacin eferente) obtenidos como resultado de
la aplicacin de la funcin F(x, W)
D(x, W) Funcin objetivo ( o desempeo ptimo) que depende de x y W
d Valor esperado de la variable y, obtenido como resultado de la
aplicacin de la funcin D(x, W)
h Hiptesis particular asociada a un problema de aprendizaje
H Conjunto de hiptesis posibles (espacio de hiptesis)
P(.) En general, distribucin de probabilidad de cualquier variable
P(x|d) Distribucin de probabilidad condicional de d dado el vector x
P(x,d) Distribucin de probabilidad conjunta de las variables d y x
L[d; F(x, W)] Funcin de prdida
R(W) Funcin de riesgo terico (valor estadstico esperado de la funcin
de prdida)
R
emp
(W) Funcin emprica de riesgo
w Funcin de transformacin (regla de cambio) de un parmetro w
W Funcin de transformacin de la matriz W
W(t) Funcin dinmica (vector-trayectoria) de la matriz W
Parmetro constante de proporcionalidad
r Seal de retroalimentacin que afecta a w
E(t) Funcin de energa
f(.) En general, cualquier funcin matemtica
Relacin de implicacin lgica entre conceptos
Relacin de equivalencia o identidad entre dos conceptos
Tendencia o aproximacin de una funcin
Concepto de infinito

Convergencia y estabilidad de las funciones de aprendizaje


6



I NTRODUCCI ON

"La milenaria tradicin de la cultura oriental ha producido hermosas muestras de su
naturaleza reflexiva y profundamente sensible. En cada matiz del arte se ve impregnado un culto
mstico hacia la serenidad y la perfeccin, como formas elementales de cultivar el espritu, y como
una manifestacin del arte ms refinado que haya creado civilizacin alguna: el arte de la paciencia.
El tradicional arte japons ha sido conservado generacin tras generacin, gracias a una
cautivadora obsesin por la perfeccin, la originalidad y un particular sentido artstico..."


Uno de los legados ms sencillos y hermosos de la cultura nipona
es para m el ORIGAMI, o el arte de plegar el papel. La paciencia y la
concentracin son cualidades esenciales para aprender un arte como
ste, puesto que para llegar a una figura determinada, el aprendiz debe
ejecutar una serie finita y particular de pasos, cada uno de los cuales
requiere a su vez de minuciosas operaciones de plegado y manipulacin
del material, esmerndose al mximo por no romper el papel, pues las
reglas cannicas del origam prohiben rasgar la hoja o unir junturas
aplicando sustancias de encolado.
La hoja debe ser plegada con cuidado, y sin olvidar una sola lnea.
Todas y cada una de las figuras que se pueden disear en origami, desde
las ms simples hasta las ms complejas, parten de una hoja de forma
cuadrada y tienen una secuencia especfica que le es propia y
caracterstica a cada una. Ejecutar la figura desde el inicio hasta el
final en un solo intento, es decir, sin errores, y conservando la elegancia
de los dobleces, requiere un ejercicio continuado de repeticin de cada
paso, ejecutando una y otra vez la figura hasta llegar a la forma
deseada. Entonces, una vez que dominamos la tcnica de elaboracin de
FABIO E. MARTINEZ C.

7
una figura, comenzamos a intentar con una nueva hasta completarla sin
ayuda didctica ms que aquella almacenada en nuestros propios
recuerdos. Muy a mi pesar siento que cada figura que aprendo a
elaborar contribuye a oscurecer el proceso de armado de alguno de los
modelos que he ensayado con anterioridad.
Ms all de ser una destreza adquirida con paciencia de manera
mecnica, o una habilidad de coordinacin visual y tactil, el origami
como un arte abstracto representa una forma de pensamiento filosfico.
A partir de un sencillo cuadrado de papel y en medio de sutiles juegos de
imaginacin y geometra, se pueden llegar a elaborar intrincadas y
complejas figuras, cuyo nico lmite es el cerebro fantasioso del artista.
Como si fuese una elegante metfora del universo, la filosofa inherente
al arte del origami es una abstraccin del pensamiento japons acerca
de la sencillez y belleza que subyace en la aparente complejidad y caos
presentes en las formas percibidas por nuestros sentidos.
Existe sin embargo una enseanza adicional de artes como el
origami y otras formas de manifestacin cultural en las que se presenta
el aprendizaje humano. El aprendizaje para las diferentes civilizaciones
es una forma de perpetuar el conocimiento. Qu es el aprendizaje?
Acaso puede el lector pensar en el vasto mundo de cosas que los
humanos hacemos gracias sencillamente a que podemos aprender a
hacerlas?
Es sta justamente la pregunta que ha guiado mi investigacin (y
gran parte de mi propia existencia). Aprender, al igual que soar y
pensar son artes fundamentales de la vida. Sin embargo, como
cientficos del conocimiento nos compete reducir la pregunta a trminos
Convergencia y estabilidad de las funciones de aprendizaje


8
fenomenolgicos. Una pregunta que se puede resolver empricamente es
Cmo aprende el cerebro?
El cerebro humano contiene un espacio multidimensional de
aproximadamente 100000.000000.000 de conexiones sinpticas
(Churchland, 1996; Guyton, 1994). Pinsese que cualquier accin que
realiza una persona (sea de orden cognoscitivo, como por ejemplo las
relacionadas con el pensamiento y el lenguaje, o de ndole sensorio-
motriz como la simple labor de plegar una hoja de papel, requiere la
actividad conjunta de un nmero tal de variables. Sin duda una
tremenda labor de clculo considerando que se trata de estructuras
biolgicas que trabajan a una velocidad mxima de conduccin que
ronda los 100 metros por segundo. Cmo hacer que todo este complejo
sistema de procesamiento trabaje en conjunto de manera sincronizada y
coherente? Cmo es posible que exista una organizacin tan altamente
especializada?
En los modelos clsicos de inteligencia artificial (IA) por
ejemplo, los sistemas expertos, esta pregunta no se haba respondido
con parsimona hasta la aparicin del Conexionismo y los modelos de
Procesamiento Paralelo Distribuido (PPD). En stos ltimos, se
atribuye semejante organizacin a fenmenos adaptativos de
Aprendizaje y Desarrollo. El cerebro, es sin duda alguna una poderosa
mquina biolgica de aprendizaje!.
En cualquier forma de actividad motora, sea en un arte como el
origami, la msica, la danza, o en el simple jugueteo de un infante con
un objeto, se repiten secuencias de movimiento que son controladas por
FABIO E. MARTINEZ C.

9
sectores especficos del sistema nervioso. Un msico practicando el
piano ejecuta una y otra vez secciones de una pieza musical hasta
coordinar el movimiento de las manos de manera casi automtica.
Durante el tiempo que dura la ejecucin musical cada msculo de la
mano se contrae en un momento preciso y a una intensidad particular
con el fin de que la pieza sea tocada correctamente.
Toda esta compleja gama de movimientos se adquiere durante el
entrenamiento, etapa en la cual se consolidan las sinapsis que
controlarn en cada instante la activacin de un conjunto especfico de
msculos y no ms de los que son necesarios. Durante el aprendizaje de
secuencias de actividad motora, en el cerebelo miles de sinapsis estn
sufriendo una transformacin continua que altera los patrones de
activacin neuronal de diferentes partes del Sistema Nervioso central,
perifrico, incluyendo el mismo cerebelo, y que determinan esta
especificidad observada en el comportamiento colectivo de la actividad
nerviosa.
Pero con el tiempo, un pianista que no ha practicado una pieza
musical puede cometer errores en su ejecucin, a menos claro, que
permita a su imaginacin volar y sentir otra vez la msica en sus manos.
Si el artista ha tenido un buen entrenamiento puede llegar a hacer
msica sin pensar en ella. Para un msico, este es sin duda un
momento sublime de interpretacin (y para el auditorio un buen rato en
la tribuna). Igualmente, para los aprendices de cualquier arte, las
primeras horas casi siempre son las mejores. Es conocida, por
ejemplo, la enorme plasticidad de los jvenes cerebros humanos que
entran en el conservatorio a los siete o diez aos para aprender a tocar
Convergencia y estabilidad de las funciones de aprendizaje


10
un piano, y que sern sin duda el futuro pianstico y musical de la
humanidad.
Por qu con el tiempo perdemos la capacidad de aprender
cualquier cosa que se nos antoje? Por qu tenemos cada vez ms
restricciones para comprender nuevos conceptos? es acaso esta forma
de envejecimiento, un fenmeno de entropa cerebral? Por qu no
puedo hacer tan bien cosas que fcilmente haca cuando contaba seis
aos, e incluso cuando tuve quince?
Cuando el aprendizaje es estudiado desde el punto de vista terico
del Conexionismo, nos enfrentamos a un conflicto entre la permanencia y
durabilidad de una organizacin neuronal dada, y su habilidad para
transformarse y dar respuesta a los nuevos desafos que implica un
mundo que est lejos de ser inmutable. Llamar a este conflicto el
dilema de ESTABILIDAD versus PLASTICIDAD. Es uno de los tantos
problemas del Aprendizaje planteados por el Paradigma Conexionista, y
es el problema que me interesa cuestionar en este documento. A modo
de ejemplo intuitivo, supongamos que alguien carece de experiencia en
los cuidados de un beb. El llanto incontrolable del nio para esta
persona puede verse como sujeto a una alta tasa de variabilidad.
Aquellos organismos que tienen un alto grado de plasticidad parecen
tener tambin un comportamiento que es cualquier cosa menos
absolutamente estable y/o predecible.
Para alcanzar la estabilidad colectiva de varios subsistemas
neuronales procesando en paralelo (tmese como ejemplo el sistema
neuromotor del cerebelo), ha de sacrificarse en algn grado la
FABIO E. MARTINEZ C.

11
"capacidad del Sistema Nervioso para cambiar en respuesta a las
presiones ambientales, o a lesiones o modificaciones invasivas del estado
interno del organismo. Los mecanismos de control de ste ltimo deben
ser capaces de modificar el tipo, forma y funcin de las sinapsis que
conectan sus circuitos neuronales" (definicin de plasticidad dada por
Nieto, 1990, pg. 37).
Indagar por la permanencia o resistencia a las perturbaciones de
un sistema conexionista me conduce a los terrenos de la neurodinmica,
y al estudio de la estabilidad y de los mtodos que permiten evaluar las
condiciones suficientes y necesarias para afirmar tericamente que un
sistema cualquiera es dinmicamente estable (Alkon, Blackwell,
Barbour, Rigler & Vogl, 1990). En contextos como la ciberntica, la IA
y las ciencias de la computacin, la condicin de estabilidad se consigue
cuando el sistema es capaz de mantener sus variables dentro de ciertos
lmites, lo cual significa que pone en marcha mecanismos de adaptacin
o auto-correccin que le permiten controlar las fluctuaciones
ocasionadas por perturbaciones externas. Un ejemplo biolgico clsico
de la nocin de estabilidad es el fenmeno de regulacin homeosttica
de la temperatura corporal que se presenta en los mamferos; fenmeno
que a su vez sirvi de modelo a uno de los ms comunes mecanismos de
control ciberntico: el termostato.
La teora matemtica del control de procesos establecida en el
Instituto Tecnolgico de Massachusetts por Norber Wiener (1948) y
Claude Shannon (1948), muestra que un comportamiento es estable si se
puede garantizar un correcto funcionamiento de los mecanismos de
control an bajo efectos de perturbacin por ruido u otras
Convergencia y estabilidad de las funciones de aprendizaje


12
circunstancias. Para tal efecto, los diseadores de sistemas de control se
dedican a buscar funciones de retroalimentacin que conduzcan a un
sistema cualquiera (un sistema de ecuaciones diferenciales, por ejemplo)
hacia estados globales de estabilidad. En teora de control se dira que
un sistema que satisface esta condicin se hace insensible a las
perturbaciones externas, y a la vez puede minimizar los efectos del error
causado por errores de diseo en el modelo (Lin y Lee, 1996; Haykin,
1999; Rovithakis, 1999).
Los modelos de procesamiento conexionistas pueden corregir sus
acciones gracias a varios procedimientos de clculo algortmico
conocidos como reglas o funciones de aprendizaje. En trminos
conexionistas un proceso de aprendizaje contribuye a adecuar y mejorar
el desempeo de un organismo inteligente (natural o artificial) como
resultado de la informacin que ha sido suministrada en su historia de
procesamiento. Un procedimiento de estos requiere tener un mtodo
efectivo para predecir los resultados de las acciones que se llevarn a
cabo en el futuro inmediato con base en los resultados actuales. En otras
palabras, el sistema debe saber cmo elaborar buenas hiptesis acerca
del futuro con base en lo que conoce sobre el pasado y el presente. La
Teora Computacional del Aprendizaje, una teora matemtica nacida en
el seno de la IA (particularmente en el rea de aprendizaje de
mquina), afirma que cualquier hiptesis que sea consistente con un
nmero suficientemente grande de ejemplos tiene una probabilidad muy
baja de ser seriamente incorrecta (Russell y Norvig, 1995). La tarea
primordial de la teora computacional del aprendizaje consiste en
FABIO E. MARTINEZ C.

13
formular un principio fundamental a partir del cual se puedan buscar
hiptesis correctas del futuro, es decir, hiptesis con capacidad de
generalizacin (aplicables a casos no previstos durante el proceso de
aprendizaje).
Las reglas de aprendizaje que permiten buscar estas hiptesis de
manera sistemtica, son reglas de transformacin (funciones en un
sentido matemtico estricto) cuyo objetivo es modificar la configuracin
(situacin actual de las conexiones sinpticas) del sistema hasta
alcanzar los valores precisos que son necesarios para dar soluciones
ptimas a un problema, es decir, hasta encontrar una hiptesis que
satisface el mundo en el cual subsiste. El modelo terico del aprendizaje
supone que, a partir de las condiciones impuestas por el medio, se
establecen suficientes relaciones entre eventos como para poder
determinar, predecir y si es posible, controlar las situaciones que
sobrevendrn en el futuro prximo.
El objetivo general de este documento es exponer los principios
analticos de las funciones de aprendizajes conexionistas enmarcadas en
el contexto del modelo neurodinmico y computacional. En particular,
pretendo sugerir que con base en los postulados y supuestos bsicos
introducidos por la Teora Computacional, y utilizando las condiciones
de estabilidad de la Teora de los Sistemas Dinmicos es posible
determinar analticamente un lmite a la variabilidad del
comportamiento de un sistema adaptativo (una red neuronal) sujeto a
procedimientos conexionistas de Aprendizaje. El argumento principal
asume que una funcin de aprendizaje conexionista al menos en
algunos casos, por ejemplo, las reglas neurocomputacionales de
Convergencia y estabilidad de las funciones de aprendizaje


14
aprendizaje basadas en la correccin del error, es una funcin del tipo
Lyapunov, es decir, que tiende o converge a cero cuando el tiempo
aproxima al infinito (Devany, 1989; Haykin, 1999, Lin y Lee, 1996).
Desde esta perspectiva terica, la plasticidad de un sistema
conexionista (y por lo tanto de un modelo computacional del cerebro),
est limitada por el aprendizaje, y decrece a medida que transcurre el
tiempo. Para fundamentar este argumento, desarrollar mi tesis del
siguiente modo: presentar en primer lugar una revisin de conceptos de
la teora computacional del aprendizaje, lo cual me permitir explorar
los supuestos principales que constituyen las nociones de error y
convergencia en ella utilizadas. Despus presentar los componentes
fundamentales que entretejen un modelo neurodinmico de las funciones
conexionistas de aprendizaje. La propiedad de convergencia me permir
posteriormente vincular la Teora Computacional del Aprendizaje al
Paradigma de la Complejidad, y particularmente, al mtodo de
Lyapunov para evaluar la estabilidad de un sistema dinmico. Cerrar
estas reflexiones con algunos ejemplos caractersticos del dilema de
estabilidad/plasticidad planteado por la teora computacional del
aprendizaje, y cmo estos pueden ser interpretados teniendo como
fundamento de anlisis la propiedad dinmica de estabilidad de las
funciones de aprendizaje.
En una reflexin final intentar exponer algunas consecuencias de
esta forma de discutir tericamente un asunto psicolgico y la
contribucin que hacen estas pginas al desarrollo de un marco
conceptual para estudiar los fenmenos cognitivos. En suma, este ltimo
FABIO E. MARTINEZ C.

15
ensayo tiene el propsito de discutir la utilidad de los principios
conexionistas en la exploracin de los drmaticos procesos que debe
experimentar un organismo a lo largo del tiempo, para consolidar esos
ciclos vitales de aprendizaje y desarrollo cognitivo que caracterizan la
naturaleza de la inteligencia humana.
Convergencia y estabilidad de las funciones de aprendizaje


16






TEORI A COMPUTACI ONAL DEL APRENDI ZAJ E

"... Aprender a vivir, nos cuesta toda la vida"
(Facundo Cabral)

La teora computacional del aprendizaje comenz a ser
desarrollada intensivamente a partir del trabajo terico de Leslie Valiant
(Valiant, 1984), quien a su vez retom los aportes de la teora estadstica
de la Convergencia Uniforme de Vapnik (Vapnik y Chervonenkis, 1971);
es por eso que en lo sucesivo me referir a ella como la Teora Vapnik-
Chervonenkis-Valiant. Para desarrollar la argumentacin he de apelar
a la capacidad imaginativa del lector para abstraer los elementos que
contempla el modelo terico. Sin embargo, no pretendo dejarlo slo en
el asunto, propondr como referencia un ejemplo basado en el modelo
clsico de la Mquina de Turing. Para ello debemos suponer primero la
existencia de un sistema de aprendizaje natural o artificialmente
simulado por ejemplo, un estudiante o el aprendiz de algn arte, que
interacta con un medio o contexto que lo circunda y le proporciona
informacin til para modificar su comportamiento. En el modelo
computacional propuesto por Turing (1936), los procesos de
pensamiento que realiza un matemtico son refresentados por un
dispositivo computacional de estados binarios, es decir, una mquina
digital (hoy en da el ejemplo perfecto es una calculadora digital). A
FABIO E. MARTINEZ C.

17
esta mquina llega una cierta cantidad de informacin proveniente
del medio.
En las antiguas computadoras esta informacin se ingresaba a
travs de tarjetas perforadas o cintas electromagnticas. Pero
usualmente un matemtico o un estudiante de matemticasno recibe
cintas perforadas como las utilizadas durante la Segunda Guerra
Mundial. En lugar de eso se enfrenta a problemas y ejercicios de
clculo (ej.: la resolucin de ecuaciones diferenciales). Para solucionar
este tipo de problemas se deben tener especificados ciertos datos de
entrada, parmetros para evaluar estos datos, reglas u operaciones para
solucionar paso a paso el problema, y (en lo posible) una calculadora.
El estudiante realiza las operaciones que cree convenientes y espera
hasta conocer sus resultados.
Si el estudiante comete un error que puede dar al traste con sus
deseos de obtener un buen promedio, para continuar en la lucha, debe
revisar cual fue el problema. Toma entonces una serie de ejemplos,
algunos sugeridos por otros compaeros, otros tomados de los libros de
texto referenciados por el docente de la asignatura, y otros elegidos al
azar de parciales anteriores (los que casualmente pudo encontrar en su
fichero). Los datos de entrada que interesan a la Teora de Vapnik-
Chervonenkis-Valiant, son aquellos que tienen la virtud de ser ejemplos,
es decir, de representar instancias de un problema en particular.
Estadsticamente, hemos de suponer que tiene una distribucin de
probabilidad fija y desconocida, es decir, que cualquiera de los ejemplos
o patrones puede ingresar al sistema pero no sabemos su probabilidad
de ser seleccionado entre los dems; esto significa que el estudiante no
Convergencia y estabilidad de las funciones de aprendizaje


18
sabe cules de todos los ejemplos que estudi son mejores para salir
exitoso en el prximo examen; pueden ser los recomendados por sus
compaeros, los que utiliza el docente, o los ejemplos que tom al azar.
Se supone que cualquiera habr de ser util como preparacin para el
examen.
Utilizar el smbolo x para representar un ejemplo cualquiera, y el
smbolo X para representar el conjunto de todos los ejemplos. Los datos
de salida, en otras palabras los resultados que entrega el estudiante a su
profesor, son representados por un conjunto Y que contiene las
diferentes soluciones que puede drsele a un problema. Para el
ejemplo, una solucin es una accin particular ydel estudiante que se
produce como resultado de la aplicacin sistemtica de algunos
procedimientos de clculo diferencial. Observando al estudiante, vemos
que algo ocurre en su cabeza que se asocia a una solucin particular,
algunos diran que est pensando, pero realmente no podemos ms que
hacer inferencias. Expresado en trminos matemticos se dice que el
aprendiz aplica una regla de transformacin que lo lleva a ejecutar una
accin particular. La naturaleza exacta de esta regla no nos interesa
por el momento.
La decisin acerca de cul solucin es la ms conveniente depende
de los ejemplos que se han trabajado y del mapa conceptual que tiene
el estudiante en su cabeza, establecido despus de duras jornadas de
estudio. En otras palabras, el estudiante llega al examen con un estado
particular de conocimiento (estado actual). Si un estudiante ha
memorizado para un parcial los primeros cinco casos de derivacin
FABIO E. MARTINEZ C.

19
algebraca, los teoremas geomtricos de Euclides y Pitgoras, y
adems el teorema fundamental del clculo, este es su estado actual. De
este conocimiento, y de otros factores no especficos (ej.: nivel de
ansiedad, regularidad de sus ciclos de sueo, sentir e idear del
individuo, etc.) dependen sus respuestas en el examen. Para formular
esta idea en trminos analticos, me es forzoso suponer que un estado
puede ser descrito (o representado) por un conjunto W de factores o
variables que representan la informacin relevante a ese estado, y que
denominar en general, parmetros libres. La regla de transformacin
mencionada anteriormente se representa simblicamente como una
funcin F(x, W) porque toma una variable x, la opera con un estado W,
y la transforma en una variable de salida y:
x F(x, W) = y
Por otra parte, si el estudiante es sagaz, elegir para practicar,
libros que contengan las soluciones correctas a los ejercicios planteados
en el texto (o por lo menos a algunos de ellos, como normalmente ocurre
en los libros de clculo). Si el estudiante se ha dedicado con empeo a
estudiar uno de estos problemas y se tropieza con l durante el examen,
sin duda se incrementar la probabilidad de que tenga una calificacin
ptima que le ayudar a mejorar su promedio acadmico. Para
representar esta idea de optimizacin, el modelo computacional del
aprendizaje define un conjunto D de valores de desempeo deseable u
ptimo, es decir, de las acciones u operaciones que se consideran
correctas para resolver un problema en particular.
Convergencia y estabilidad de las funciones de aprendizaje


20
Puesto que tericamente esta variable est en funcin de los datos
de entrada [X] para cada ejemplo particular existe una solucin
correcta tiene tambin una distribucin de probabilidad que es fija y
condicional (la probabilidad del conjunto D dado el conjunto X). Esto
sencillamente quiere decir que la solucin de un problema requiere a su
vez de los datos que tenemos para resolverlo. Se presume que a medida
que progresa el aprendizaje, las acciones tomadas por el aprendiz se han
de aproximar a las acciones correctas contenidas en el conjunto D (de lo
contrario nos enfrentamos a un ser incapaz de aprender).
Una funcin de desempeo ptimo o en breve, una funcin
objetivo D(x, W) es tambin una regla de transformacin que en este
caso toma los datos de entrada x y los convierte en una accin correcta
d contenida en el conjunto D:
x D(x, W) = d
El aprendiz no la conoce (de lo contrario no necesitara aprender)
y por lo tanto la debe aproximar empricamente a partir de los datos de
entrada. Puesto que el entrenamiento es un procedimiento inductivo,
suponemos que el estudiante elabora una serie de posibles inferencias
o hiptesis h acerca de la forma en que debe dar solucin a un
problema. Al conjunto de todas estas inferencias se le denomina espacio
de funciones hiptesis. Debemos asumir que las hiptesis que elabora
el aprendiz estn estrechamente relacionadas con su estado actual de
conocimientos, es decir, con el conjunto W de variables que lo
representan. Esto quiere decir que el conjunto de parmetros de estado
(W) se halla estrechamente vinculado con el espacio de hiptesis (H) en
FABIO E. MARTINEZ C.

21
tanto un desplazamiento del primero se encuentra asociada a la
reformulacin de una hiptesis:
WH

El problema de generalizacin. Durante el proceso de aprendizaje,
el estudiante ha sido entrenado con una cantidad de N ejemplos. En
trminos del modelo computacional del aprendizaje, la cantidad total de
ejemplos posibles define un espacio de muestra, es decir, un espacio
vectorial (o conjunto de elementos si se quiere) que contiene los ejemplos
de todos los textos de enseanza en matemtica, y en particular, de todos
los libros que tratan el tema de ecuaciones diferenciales. El supuesto
fundamental, introducido por Valiant, es que todos estos ejemplos tienen
una distribucin de probabilidad idntica e independiente, lo cual
significa que todos los ejemplos del espacio de muestra tienen la misma
probabilidad de ser seleccionados de manera aleatoria. Para el caso que
nos ocupa, el estudiante tiene un sesgo en esta seleccin puesto que
existe una tendencia a escoger aquellos problemas que se encuentran en
los libros tpicos de su ambiente acadmico, sin embargo, idealmente
debera poder revisar todos los ejercicios planteados por cualquier libro
de texto matemtico creado por la humanidad.
Estadsticamente hablando, la nocin de distribucin de
probabilidad idntica e independiente que hace Valiant supone el
principio de homogeneidad de la muestra. Esto es importante puesto
que debido a la naturaleza inductiva del proceso, el aprendizaje enfrenta
un problema de generalizacin a partir de muestras aleatorias
Convergencia y estabilidad de las funciones de aprendizaje


22
(Haykin, 1999): Son los ejemplos con los que se entrena el aprendiz, lo
suficientemente representativos del problema en cuestin? Contienen la
informacin necesaria sobre la funcin objetivo, para que la hiptesis
seleccionada pueda generalizarse a casos no presentados durante la
etapa de entrenamiento? Son todos los ejemplos que revisa el
estudiante de matemticas, relevantes para resolver los problemas que
se encontrar en el examen?
Debemos recurrir, por necesidad, a la hiptesis que sugiere que los
eventos futuros (los casos a generali zar) son similares al pasado (los
ejemplos con los cuales fue entrenado el aprendiz). Cuando un
matemtico se enfrenta ante un problema de estos, lo asigna a una clase
denominada problemas de complejidad de la muestra. El anlisis de
complejidad del aprendizaje inductivo es el gran problema que ha
intentado resolver la teora computacional del aprendizaje en los ltimos
aos (Russell y Norvig, 1995; Takahashi y Gu, 1998).
Este problema cuestiona tambin la complejidad del tiempo de
computacin requerido para que se consiga una buena generalizacin.
Puede ser expresado de la siguiente manera Cul es el tiempo de
computacin o procesamiento ms largo requerido para lograr el
objetivo del aprendizaje?, en otras palabras, Cul es el nmero mximo
de ensayos necesarios para completar la etapa de entrenamiento, dada
una muestra de N ejemplos? Cunto tiempo deber pasar el estudiante
practicando sus ejercicios para en el futuro poder solucionar
correctamente una ecuacin diferencial dada?
FABIO E. MARTINEZ C.

23
La nocin de generalizacin est estrechamente relacionada con
el poder de prediccin que se consigue durante el entrenamiento. La
capacidad para predecir eventos futuros es una caracterstica comn a
todas las formas del aprendizaje, y es tambin una piedra angular de la
teora computacional acerca del mismo. Cmo puedo yo como ser
inteligente aprender a predecir el futuro?
La habilidad de poder determinar los acontecimientos de manera
anticipada y premeditar las posibles consecuencias de nuestras acciones,
adquiere vital importancia cuando un ente inteligente, como usted, yo o
una estpida mquina de IA, se enfrenta a un medio no estacionario
(Russell y Norvig, 1995; Haykin, 1999), en otras palabras, un medio
dinmico, variable en funcin del tiempo. En efecto, cuando los
parmetros estadsticos de la informacin generada por el ambiente
los datos de entrada varan con el tiempo, el entrenamiento debe
equipar al aprendiz con el potencial de extractar las regularidades del
mundo en el cual opera. Un ente inteligente debe ser capaz de modificar
continuamente (y en tiempo real si se trata de un robot pathfinder de
exploracin marciana) sus parmetros libres (w) respondiendo a cada
instante a las variaciones en los datos de entrada. Para que un sistema
inteligente pueda adecuar su comportamiento, es menester poder
predecir los acontecimientos futuros utilizando la experiencia previa (la
informacin que constituy el pretrito).
El problema del aprendizaje consiste pues en buscar y seleccionar,
dado el espacio de muestra, una hiptesis que se aproxime a lo que en
realidad acontece (la funcin objetivo) y conservando una capacidad de
prediccin y generalizacin aceptable. El problema de buscar el lmite
Convergencia y estabilidad de las funciones de aprendizaje


24
en la generalizacin del aprendizaje inductivo, ha sido investigado
principalmente desde dos perspectivas diferentes (Takahashi y Gu,
1998). La primera iniciativa consiste en recurrir al anlisis del peor
caso de generalizacin (worst-case analysis) desarrollado bajo el
contexto de la teora de Vapnik y Chervonenkis (1971). La otra es
estudiar el caso promedio (average-case), a partir de los modelos
planteados por Haussler y sus colegas (Haussler, Kearns, Opper y
Schapire, 1992; Opper y Haussler, 1995). Esta ltima aproximacin
analiza el aprendizaje utilizando supuestos de la teora de la informacin
y de la mecnica estadstica. A diferencia del anlisis de complejidad de
la muestra basado en el peor caso, el anlisis del caso promedio, esta
aproximacin hace uso de supuestos adicionales acerca de la
distribucin de probabilidad de los ejemplos y de las funciones objetivo
En la presentacin subsiguiente me limitar tan slo a introducir las
nociones bsicas de la generalizacin basada en la teora de
minimizacin de la probabilidad de error propuesta por Valiant (1984),
que es una forma de anlisis del peor caso.
El principio (hipottico) del cual parte la teora de Valiant es el
siguiente: cualquier hiptesis decididamente errada ser rechazada
despus de presentar un nmero relativamente pequeo de ejemplos de
entrenamiento, debido a que dar lugar a predicciones incorrectas
(Haykin, 1999; Russell y Norvig, 1995; Valiant, 1984). Esto significa
que el estudiante debe desechar una forma de solucionar una ecuacin si
observa que no le sirve para resolver la mayora de los casos, pero debe
conservarla si tiene suficiente xito para dar solucin a una buena parte
FABIO E. MARTINEZ C.

25
de los ejercicios que encuentra en su camino. Se dice entonces que
cualquier hiptesis que sea consistente con un nmero suficientemente
grande de ejemplos, tendr una probabilidad muy reducida de ser
errnea. A este supuesto se le denomina principio de la hiptesis
probable y aproximadamente correcta (Probably Approximately
Correct Hypothesis). Su principal restriccin consiste en que la
muestra de ejemplos, tanto en la fase de entrenamiento como en la fase
en donde se verifica la generalizacin de la hiptesis (fase de prueba ),
debe tener la misma distribucin de probabilidad, es decir, la muestra
debe ser homognea.
Decimos que una funcin hiptesis particular h tomada del espacio
de hiptesis, es consistente con un ejemplo cualquiera x, si al aplicar la
funcin de transformacin F(x, W), el resultado es una accin correcta
d. En este caso se dice que la funcin hiptesis es idntica a la funcin
objetivo:
F(x, W) = y d
Suponemos que el espacio de hiptesis realmente contiene todas las
hiptesis posibles, incluyendo tanto aquellas que son consistentes con los
ejemplos como aquellas que no lo son. Existe una regin que delimita
estas dos clases de hiptesis, denominada regin lmite de decisin
(Takahashi y Gu, 1998). En ella se corre el riesgo de aceptar una
hiptesis como consistente sin que en realidad lo sea (falso positivo) o de
rechazar una hiptesis que si es consistente (falso negativo). Para
enfrentar este problema tomamos un factor de prdida, esto es, una
medida de error o discrepancia entre un valor particular d de la funcin
Convergencia y estabilidad de las funciones de aprendizaje


26
objetivo y su accin asociada y. En el ejemplo, el estudiante compara la
calificacin que obtuvo en el examen con aquella que debera haber
alcanzado si hubiese estudiado con ms disciplina.
Matemticamente se expresa como una funcin que depende de
ambas: L(d, y). La teora no depende de la forma en particular que
adopte esta funcin de error. Una funcin frecuentemente utilizada para
computar el error es la funcin de prdida cuadrtica, definida como la
distancia euclidea o valor de diferencia absoluta entre el par de vectores
d e y:
L d F x W d F x W [ ; ( , )] ( , ) =
2

Puesto que por cada ejemplo x existe una solucin correcta d, el
valor esperado de la funcin de prdida depende de la distribucin de
probabilidad conjunta de x y d, es decir, P(x, d)= P(d|x)P(x). El valor
esperado de prdida, representado por R(W), se expresa
estadsticamente de la siguiente forma:
R W L d F x W dP x d ( ) [ ; ( , )] ( , ) =


Esta es la funcin de riesgo terico que expresa cuantitativamente
el error de prediccin (y/o de generalizacin). Est en funcin de los
parmetros libres W, en otras palabras, los errores cometidos por el
estudiante durante el examen dependen ms de su estado de
conocimientos sobre matemtica diferencial que de su estado de
ansiedad previo al examen. La meta del proceso de aprendizaje es
minimizar la funcin de riesgo en el espacio de funciones hiptesis H.
Sin embargo, desconocemos las distribuciones de probabilidad de los
FABIO E. MARTINEZ C.

27
conjuntos X e Y, y por lo tanto la funcin de riesgo se infiere a partir
del conjunto de ejemplos (patrones de entrenamiento) que tenemos como
muestra.
La funcin de riesgo obtenida empricamente por medio de los
ejemplos y representada por R
emp
(W), se define estadsticamente como la
media aritmtica de las funciones de discrepancia o prdida (Haykin,
1999; Takahashi, y Gu, 1998; Vapnik, 1982):
R W
N
L d F x W
emp
i
N
( ) [ ; ( , )] =
=

1
1
.
Vapnik (1982) muestra cmo, de acuerdo a los teoremas clsicos de
la teora de probabilidad, el riesgo emprico puede ser minimizado con
respecto a los parmetros libres del aprendiz cuando el tamao de la
muestra de ejemplos de entrenamiento (y por lo tanto el tiempo de
cmputo para ste) tiende a ser infinitamente grande. Podemos ofrecerle
al estudiante la esperanza de aprender a resolver todas las ecuaciones
diferenciales del mundo, si puede vivir lo suficiente para ello. La media
emprica de la funcin de prdida converge entonces a su valor
esperado, y que est definido analticamente a travs de la funcin
terica de riesgo:
R
emp
(W) R(W) cuando t y/o N
Donde t indica el tiempo de entrenamiento
En general, el principio de minimizacin de riesgo emprico afirma
que si la funcin emprica de riesgo se aproxima a la funcin de riesgo
terico, con un error infinitesimal de precisin s, entonces la
probabilidad de que el mximo valor que puede resultar de la diferencia
absoluta entre los vectores d e y sea mayor al error de precisin,
Convergencia y estabilidad de las funciones de aprendizaje


28
converge a cero cuando el tamao de la muestra o el tiempo de
entrenamiento tienden a infinito. A esta hiptesis se la conoce con el
nombre de hiptesis de onvergencia uniformey es utilizada por Vapnik
y Chervonenkis en su teora del aprendizaje para establecer los lmites
tericos de la tasa con la cual el factor de error converge a cero
(Vapnik, 1982):
P( L d y [ ; )] ) > s 0 cuando t y/o N
La teora no insiste en que el aprendizaje deba ser perfecto (Russell
y Norvig, 1995), se considera aceptable una hiptesis que tenga cierto
grado de certeza predictiva. Bajo esta condicin, dentro del espacio de
hiptesis posibles H, una hiptesis cualquiera es aproximadamente
correcta si la probabilidad del error de prediccin o su aproximacin
emprica es menor o igual a la constante infinitesimal s:
P[R
emp
(W)] s
La probabilidad de que una hiptesis completamente errnea (el
peor caso) sea consistente con los primeros m ejemplos puede ser
calculada teniendo en cuenta que la probabilidad de error de la hiptesis
debe ser mayor a la constante infinitesimal s, por lo tanto, la
probabilidad de que concuerde con cualquiera de los ejemplos de la
muestra es menor o igual a la unidad menos la constante:
P[h] (1 s)
Si consideramos los primeros mejemplos, o ejercicios que tom el
estudiante de matemticas, la probabilidad de que la hiptesis errnea, y
por lo tanto la hiptesis que no le sirve para aprobar el examen,
concuerde con todos ellos satisface la desigualdad:
FABIO E. MARTINEZ C.

29
P[h] (1 s)
m
La teora computacional del aprendizaje, a pesar de ser un activo
campo de investigacin que est an en sus primeras etapas de
desarrollo, ha generado una nueva forma de abordar los problemas
implicados en los procesos de aprendizaje. Su elegancia y soporte
estadstico nos proporciona bases conceptuales para formular modelos
que exploran analticamente los lmites de la generalizacin y la
prediccin en el aprendizaje. Los supuestos sobre los que se fundamenta
la teora nos obliga a cuestionar los criterios empleados para
seleccionar los ejemplos de entrenamiento, y a evaluar sus
consecuencias sobre la magnitud de los errores de generalizacin
obtenidos a largo plazo, por ejemplo: El conocimiento del estudiante
adecuado y suficiente para resolver problemas ms avanzados de clculo
vectorial?
En los prrafos subsiguientes mostrar la pertinencia que tiene esta
teora para analizar los mecanismos de aprendizaje formulados por el
paradima conexionista, y cmo el concepto de convergencia uniforme
proporciona un marco terico adecuado para estudiar desde un punto de
vista neurocomputacional la propiedad de estabilidad ligada a las reglas
o funciones de aprendizaje conexionistas.

Convergencia y estabilidad de las funciones de aprendizaje


30







NEURODI NAMI CA Y CONEXI ONI SMO

Nunca he visto con mis propios ojos, humildes escrutadores del tiempo, la
actividad celular del caracol marino hermissenda crassicornis en curso. Y menos
an, su crecimiento a partir de minsculas partculas de ADN. Tan slo puedo
imaginarme un concierto de tejidos musicales. Por director, el tiempo, y por
intrpretes los millares de enjambres celulares que pueden componer el plido
reflejo del pensamiento humano

La neurodinmica es la ciencia que explora el intenso drama que
experimentan las clulas de tejido vivo que conocemos como neuronas,
por ejemplo, durante la activacin de un movimiento muscular. Junto
con el estudio de los cambios que ocurren en el tejido nervioso, los
investigadores de esta rama de las neurociencias buscan adquirir
herramientas analticas que les permitan evaluar el grado de orden que
existe en las organizaciones neuronales, y extractar las propiedades del
funcionamiento estable caracterstico de los patrones de actividad
neuronal.
El estudio cuantitativo del sistema nervioso tiene una tradicin
relativamente reciente en la historia de las neurociencias (Hodkin y
Huxley, 1952; Holden y Winlow, 1983; Rashevsky, 1938). Por ejemplo,
los estudios de Helmhotz sobre la velocidad de conduccin y de
FABIO E. MARTINEZ C.

31
transmisin nerviosa, fueron iniciados hacia comienzos de la segunda
dcada del siglo XIX. Tambin en esta tradicin, Hodgkin y Huxley,
dieron a conocer sus investigaciones sobre la conduccin de potenciales
en la membrana neuronal. Con este fundamento la investigacin en
neurodinmica utiliza el potencial de la matemtica diferencial para
modelar la naturaleza dinmica del funcionamiento del sistema nervioso.
Para estudiar la evolucin temporal de la actividad cerebral, se disean
modelos computacionales que representan el comportamiento de la
actividad neuronal en forma de soluciones a ecuaciones abstraen
propiedades y funciones imputadas a las clulas nerviosas.
Una Neurona tpica tiene tres componentes principales: (i)
dendritasque debido a su rea de extensin espacial y a su gran nmero
de ramificaciones se sabe que en una clula de Purkinje promedio, se
encuentran cerca de 10.000 sinpsis son los principales rganos
receptores de los impulsos bioelctricos que viajan procedentes de otras
clulas nerviosas, (ii) un cuerpo celular o soma, que tambin recibe
impulsos de otras neuronas, pero su funcin principal es procesar las
caractersticas espaciales y temporales de los patrones de potencial
elctrico que afectan a la membrana celular. En una regin lmitrofe de
ella se ubica (iii) el axn. Gracias a los estudios neurobiolgicos del
procesamiento en membrana se sabe que la intensidad del potencial en el
soma tiene un efecto no lineal y probabilstico sobre la excitacin
elctrica de la regin de membrana en la parte inicial del cono axnico.
Este efecto es conocido en la literatura como el principio de disparo del
"todo o nada" (Bridgeman, 1988; Guyton, 1994), el cual dictamina que
el disparo es ocasionado tan slo cuando el potencial de membrana se
Convergencia y estabilidad de las funciones de aprendizaje


32
aproxima a un determinado valor probabilstico de umbral. El potencial
se propaga por toda la membrana del axn a una velocidad de casi 100
metros por segundo en las neuronas ms rpidas del sistema nervioso (el
sistema senso-motriz). El impulso elctrico es enviado hacia las
terminaciones axnicas en donde se ocasiona el proceso de transduccin
electrico-qumica que esparce en el lquido extracelular molculas
neurotransmisoras, y que en comunin con otros impulsos se funde en
una seal espacio-temporal que se moviliza por el Sistema Nervioso
como un murmullo de voces.
Cuando McCulloch y Pitts se enfrentaron a la tarea de elaborar su
anlisis lgico-computacional del procesamiento nervioso, averiguaron
que una neurona interconectada con otras, al igual que una Mquina de
Turing, poda computar cualquier funcin booleana. Dicho en otros
trminos, el tejido nervioso tiene una habilidad natural para aproximar
funciones matemticas. En el anlisis cuantitativo que llevaron a cabo
estos autores, un patrn de impulsos provenientes de las neuronas
presinpticas, es considerado como un vector x cuyos elementos son
datos de entrada que ingresan a las dendritas de la neurona (seales
aferentes). Los potenciales de accin (las seales eferentes) son, a su
vez, considerados como un vector y de variables de salida.
Al igual que un estudiante resuelve una ecuaciones diferenciales
aplicando ciertos procedimientos o reglas de transformacin, el
procesamiento que se lleva a cabo en la membrana de una neurona vara
en funcin del tiempo siguiendo leyes de organizacin que parecen ser
intrnsecas al funcionamiento a nivel celular del sistema nervioso. Los
FABIO E. MARTINEZ C.

33
receptculos de la informacin neuronal las dendrtas y el soma,
reducen a una sla seal todos los impulsos que reciben. Es por eso que
bajo un tratamiento matemtico el procesamiento de la membrana se
considera como una funcin que integra los datos aferentes, y la
transduccin electrobioqumica que acontece en las sinapsis se concibe
como una variable w que asigna una importancia relativa a cada una de
los impulsos posinpticos.
En el ejemplo gua presentado en el captulo anterior, el
conocimiento actual (al menos durante el examen) del estudiante fue
representado como un estado definido por unos parmetros libres w. Sin
embargo, no he especificado an cmo caracterizar este estado, es decir,
cmo est representado su conocimiento de lgebra, geometra y
clculo. Lo he considerado de manera muy general desde el marco de
referencia de la Mquina de Turing, como el estado de un mecanismo
abstracto (Ej.: el de una calculadora). El Sistema Nervioso nos ofrece
una respuesta ms concreta: el conocimiento est almacenado en los
tejidos neuronales. El Sistema Nervioso del estudiante puede ser tratado
entonces como un sistema de procesamiento masivamente paralelo (un
modelo PPD) que tiene la propiedad de representar el conocimiento a
travs de la actividad neuronal.
Un tejido no hace honor a su definicin si no existen puntos de
interconexin, en este caso las sinapsis. Estas son las variables que
indican el grado de intensidad o fortaleza de la conexin (w) que existe
entre una neurona presinptica cualquiera y las posinpticas de las
cuales recibe seales electroqumicas (los potenciales de accin). El
concepto de conexin es un constructo hipottico de gran importancia
Convergencia y estabilidad de las funciones de aprendizaje


34
para el Conexionismo de ah justamente el nombre de este
paradigma, y en especial para las teoras de plasticidad y aprendizaje
basadas en l, puesto que permite asignar una importancia diferencial a
cada una de las seales aferentes x. Al conjunto de valores de conexin
sinptica, que representan el estado de un sistema conexionista, se le
denomina matrizde conexiones o matriz de configuracin sinptica (W).
Interpretndola geomtricamente, cada una de las conexiones es
representada como una dimensin, un eje de coordenada en un espacio
vectorial multidimensional. Por ejemplo, si consideramos una neurona
con tan slo tres sinapsis una rareza neuroanatmica, obtendriamos
un espacio vectorial de tres dimensiones. En este cubo abstracto,
cualquier matriz de conexin sinptica corresponde a algn punto del
volumen. Cuando por alguna razn las conexiones sinpticas sufren un
proceso de cambio (sea el debilitamiento o la intensificacin de la
sinapsis), se produce un desplazamiento o cambio de posicin en el cubo
desde un punto del volumen hacia otro.
De esta manera podemos representar la evolucin en el tiempo de
un estado conexionista mediante la trayectoria descrita entre los puntos
inicial y final del desplazamiento, en un espacio W abstracto y
multidimensional que llamar espacio de fases. En el Sistema Nervioso,
la trayectoria de un estado en el espacio de fases, es decir el cambio de
configuracin en la matriz de conexiones de ste, puede deberse a varias
razones: una lanza que atraviesa el lbulo prefrontal del cerebro, la
extirpacin o implantacin quirrgica de tejido, procesos de desarrollo
embrionario, degeneracin neuronal o plasticidad sinptica. Los tres
FABIO E. MARTINEZ C.

35
ltimos factores de cambio tericamente podran ser descritos
matemticamente a travs de funciones de transformacin que permitan
calcular el desplazamiento en el espacio de fases a lo largo del tiempo.
Desde la perspectiva conexionista, la funcin de plasticidad es
considerada como una regla que gobierna los cambios que ocurren en
las conexiones del sistema y, por ende, los cambios de posicin en el
espacio de fases. Matemticamente, estos cambios se representan como
la diferencia entre los puntos final (la configuracin actual) e inicial (la
del instante anterior):
W = W
estado final
W
estado inicial
Cuando ponemos estas consideraciones en funcin del tiempo, la
regla de cambio del aprendizaje se transforma en una funcin dinmica
de estado, es decir, en una funcin que permite calcular para cada
instante de tiempo, y punto a punto, la trayectoria (u rbita) de
desplazamiento de la matriz W:
W (t) = W(t)
estado final
W(t-1)
estado inicial
Utilizando el teorema fundamental del clculo, un estudiante de
matemticas no encontrara dificil hallar el sistema de ecuaciones
diferenciales parciales que describen de manera continua (en el tiempo),
la velocidad o razn de cambio de W en el espacio de fases:
Lim
W t
t
W t
t
t

=
0
( ) ( )



Reglas de plasticidad sinptica
El postulado que Hebb formul en 1949 nos ofrece un mecanismo
biolgicamente plausible para la funcin dinmica conexionista, un
Convergencia y estabilidad de las funciones de aprendizaje


36
mecanismo que transforma un estado inicial en un estado final y que se
asocia a fenmenos de aprendizaje y memoria:
"Cuando el axn de una clula A est lo suficientemente cerca como
para excitar una clula B, y repetida o persistentemente contribuye a
producir su disparo, algn proceso metablico o de crecimiento toma
lugar en una o ambas clulas de tal forma que la eficiencia de A como
una de las clulas que pueden activar a B, es incrementada." (Donald
Hebb, 1949, pg. 56)
Aparte de su importancia desde el punto de vista neurobiolgico,
esta hiptesis ha recibido una gran acogida en el paradigma
conexionista debido a que explica los fenmenos de plasticidad neuronal
de una manera computacionalmente viable. Por ejemplo, esta
posibilidad de reducir a los principios de procesamiento de informacin
la regla hebbiana, ha permitido desarrollar experimentos de simulacin,
tales como los realizados por Alkon y cols (1990), para someter a prueba
teoras neurocomputacionales sobre el condicionamiento de movimientos
reflejos en el sistema nervioso del caracol marino Aplysia, y sobre los
procesos de almacenamiento y memoria relacionados con el hipocampo
(Kandel y Hawkins, 1993).
Los ncleos neuronales del hipocampo, una estructura del lbulo
temporal, y una formacin relacionada, la amgdala, son considerados
como zonas corticales de procesamiento temporal (consolidacin de
memoria transitoria) esenciales para el aprendizaje a largo plazo. En el
ao de 1973, los investigadores Timothy Bliss y Terje Lomo
comprobaron que una serie breve y de alta frecuencia de potenciales de
accin en las vas neuronales interiores del hipocampo intensifica la
fuerza sinptica en dicha va a travs de un proceso celular conocido
como Potenciacin a Largo Plazo (PLP). Las pruebas de laboratorio
FABIO E. MARTINEZ C.

37
mostraron que la actividad correlacionada de las neuronas
presinpticas y de la membrana posinptica es una condicin suficiente
para que ocurra un proceso de PLP. Desde un punto de vista
conexionista la regla de aprendizaje propuesta por Hebb, aplicada
localmente a cada una de las sinapsis, vara en funcin de las seales
aferentes (A) y de las eferentes (B):
w (t) = f(A, B)

La regla hebbiana de aprendizaje presentada de esta manera ha
permitido derivar otros mecanismos de auto-organizacin observados en
otras partes del tejido nervioso, tales como el sistema visual (Grossberg,
1976; Anderson, 1983; Linsker, 1986; 1988). Sin embargo, una
particularidad de esta expresin es que no contempla explcitamente una
variable para representar la seal de error tal como es formulada desde
el punto de vista computacional del aprendizaje. Esto significa que un
sistema que haga uso del principio hebbiano de aprendizaje para ajustar
su desempeo, no recibe retroalimentacin que lo gue globalmente
hacia un objetivo (de ah que sea un modelo neurodinmico de auto-
organizacin basada en interacciones locales) y por ende dejan de ser
aplicables los principios postulados por la teora Vapnik-Chervonenkis-
Valiant.
Luego de publicado el libro de Hebb, Frank Rossenblatt (1958), en
su artculo The perceptron: A probabilistic model for information
storage and organization in the brain proporcion al conexionismo una
funcin de aprendizaje vasada en un principio de correccin del error.
La regla de aprendizaje del perceptrn, es en trminos generales una
Convergencia y estabilidad de las funciones de aprendizaje


38
funcin que depende de un error de desempeo que se obtiene a partir de
la comparacin de la actividad actual (y) con un objetivo o meta de
desempeo ptimo (d). La funcin de aprendizaje en su modalidad ms
simple, es representada analticamente en los siguientes trminos:
w (t) = f( L d y [ ; )] )
w (t)= f( d F x W ( , ) )
El perceptrn de Rossenblatt ha sido fuente de inspiracin para
los desarrollos tericos que se formularan luego que Marr y Albus
dieron a conocer sus modelos de aprendizaje en la corteza del cerebelo
(Marr, 1969; Blomfield y Marr, 1970; 1971; Dufoss, 1997; Houk,
Buckingham y Barto, 1997). El cerebelo es un soberbio aprendiz!. Las
teoras neurobiolgicas que intentan arrancarle a la naturaleza el
secreto funcional de este subsistema del Sistema Nervioso Central
(SNC), han barajado, a partir del trabajo de estos dos autores y de
aquellos que les sucedieron (Ito, 1970; Gilbert, 1975; Houk y Barto,
1992; Kawato y Gomi, 1992; Flamet y Ebner, 1997; Gielen, 1997) una
hiptesis que interpreta al cerebelo como un mecanismo de deteccin y
correccin de errores en el desempeo motor, y que durante las
secuencias de entrenamiento caractersticas de los problemas de
aprendizaje contribuye al orden del sistema sensorio-motriz. La
argumentacin de estas teoras de retroalimentacin del error se
sostiene en hallazgos anatmicos y funcionales que designan a una
estructura del bulbo raqudeo, la oliva inferior, como una fuente de
retroalimentacin de seales de error (principalmente de ndole somato-
sensorial) hacia la corteza cerebelar. A sta ltima confluye una va
FABIO E. MARTINEZ C.

39
aferente conformada por haces de fibras nerviosas (fibras trepadoras)
que crean sinapsis con una de las clulas ms estudiadas del sistema
nervioso, la clula de Purkinje. Una de las particularidades de este tipo
de neuronas es que junto con sus otras fibras aferentes, las fibras
paralelas, crea una geometra modular similar a una densa y altamente
organizada red de cableado.
Adems de esa propiedad arquitectnica, el cerebelo atrae la
atencin porque su actividad eferente es esencialmente inhibitoria, lo
cual hace que la corteza cerebelar sea, en trminos generales, un
subsistema de retroalimentacin negativa para otras estructuras del
Sistema Nervioso Central que tambin intervienen en el procesamiento
del control motor, principalmente reas de corteza frontal, sistema
vestibular, ganglios basales, y mdula espi nal (Guyton, 1994). El
circuito de la corteza cerebelar, por intermedio de las clulas de
Purkinje, contribuye a apaciguar la natural impulsividad de la actividad
motora, inhibiendo los ncleos neuronales sepultados en las zonas ms
internas del cerebelo y cuyos axones envan potenciales de accin que
viajan hacia sitios especficos del sistema vestibular, la formacin
reticular, el tlamo, la mdula espinal, y que finalmente, en las neuronas
de las regiones ms prximas a los tejidos estriado y liso, regularn las
secuencias de descarga bioelctrica que producen las contracciones
musculares que dan vida y movimiento a los organismos animales.
La retroalimentacin del error por vas aferentes de la oliva
inferior observada en la corteza cerebelar, y su efecto subsecuente sobre
las neuronas de Purkinje, ha concentrado los estudios experimentales de
los neurofisilogos sobre las reglas de aprendizaje y los mecanismos
Convergencia y estabilidad de las funciones de aprendizaje


40
celulares implicados en la generacin de patrones dinmicos de
actividad sensorio-motriz (Houk y Barto, 1992; Houk y cols., 1997;
Kawato y Gomi, 1992). Por la misma poca en que se comenzaban a
conocer las capacidades de desarrollo adaptativo de la PLP en el
hipocampo, los estudios de Marr (1969), Ito (1970) y Albus (1971)
buscaban un proceso similar en la plasticidad sinptica del cortex
cerebelar. Segn cuenta la historia (Houk y cols., 1997), Albus postul
una regla de aprendizaje verificada experimentalmente por Ito en aos
posteriores (Thompson, 1997), en la cual la intensidad de la conexin
sinptica decrece debido a la presencia en sincrona de la activacin de
la clula de Purkinje y la despolarizacin causada por las dos seales
aferentes provenientes de las fibras trepadoras, y de las fibras musgosas,
otra va aferente que, discurriendo por una capa intermedia de
interneuronas denominadas clulas granulares, origina las seales
procesadas por la capa molecular de la corteza cerebelar, nivel que
esencialmente est conformado por fibras paralelas. A este proceso de
debilitamiento sinptico debido a actividad conjunta pre y posinptica,
en analoga con la PLP, se le denomina depresin a largo plazo (DLP) y
ha dado lugar a la formulacin de una regla de aprendizaje de tres
factores (Houk y Barto, 1992): la sinapsis entre la terminacin axnica
de las fibras paralelas y alguna espina dendrtica de la clula de
Purkinje inicia un proceso de DLP si hay actividad presinptica de la
espina, junto con actividad posinptica ocasionada por la descarga de
otras fibras paralelas y de las fibras trepadoras (la seal de
entrenamiento proveniente de la oliva inferior). La regla de aprendizaje
FABIO E. MARTINEZ C.

41
de tres factores puede expresarse de manera similar a la regla
hebbiana salvo por el uso del concepto retroalimentacin del error:
w (t) = f(A, B, L d y [ ; )] )

Los mecanismos celulares de la PLP en el cerebelo fueron
propuestos por los investigadores James Houk, neurofisiolgo de la
Universidad Mdica Noroeste en Chicago, y Andrew Barto, del
Departamento de Ciencia Computacional de la Universidad de
Massachusetts. La hiptesis que elaboraron estos autores plantea que
un proceso PLP en una espina dendrtica es el resultado de la
presentacin simultnea de una descarga presinptica de las fibras
trepadoras en la clula de Purkinje, la ausencia de actividad
presinptica en la espina en cuestin, y la actividad posinptica
ocasionada por la despolarizacin en otras espinas. La regla de
aprendizaje para la induccin de PLP sera la siguiente:
W (t) = f(B, L d y [ ; )] )

Funcin generalizada de aprendizaje
La seal de retroalimentacin del error encontrada en los hallazgos
neurobiolgicos de procesamiento cerebelar y a la cual tambin la teora
Vapnik-Chervonenkis-Valiant se refiere, adopta en el Paradigma el
nombre genrico de seal de aprendizaje. Es considerada como una
cantidad (r) de informacin acerca del desempeo o adecuacin que
tiene la configuracin W de un tejido neuronal con relacin a las
condiciones ptimas exigidas para cumplir con los objetivos del
aprendizaje. Esto significa que la seal de aprendizaje, es un indicador
de error en la medida en que establece la diferencia entre el patrn de
Convergencia y estabilidad de las funciones de aprendizaje


42
impulsos generado por la actividad neuronal, y un patrn ideal de
desempeo ptimo. En un experimento tpico de aprendizaje
sensoriomotriz, por ejemplo, se pide a un individuo que siga con el dedo
ndice el cursor de una pantalla de computador; la retroalimentacin
visual le permite al individuo establecer el error de posicin de su dedo
con respecto al cursor, y con base en esta informacin su sistema
nervioso ajusta el comando neuromotor que produce el movimiento del
dedo hacia su objetivo. El error en la trayectoria del dedo con respecto a
la del cursor activa una seal que puede ser expresada matemticamente
como una funcin de prdida, tal como fue descrita en prrafos
anteriores: L d y [ ; )] .
Sobre estos argumentos, es posible establecer una regla general
para el aprendizaje que describe la trayectoria que sigue cada uno de los
valores de conexin sinptica durante un procedimiento de aprendizaje
cualquiera. Una ecuacin generalizada del aprendizaje puede
expresarse de la siguiente forma (Lin & Lee, 1996):
w (t) = r x

o tambin,

W t
t
( )
= r x
Donde x es la informacin de entrada o los datos de aferencia que
son recibidos a travs de la sinpsis en cuestin; el smbolo griego
representa un parmetro denominado constante de aprendizaje. En el
modelo conexionista este parmetro corresponde a un valor constante,
real y arbitrario de proporcionalidad que se introduce por conveniencia.
Las teoras clsicas de aprendizaje, como por ejemplo la teora de
FABIO E. MARTINEZ C.

43
condicionamiento clsico de Rescorla y Wagner (1972), incorporan
una nocin similar para identificar caractersticas perceptuales e
individuales que afectan el aprendizaje, y especialmente el tiempo
necesario de entrenamiento (Haykin, 1999; Lee, 1991; Lin y Lee, 1996;
Pearce, 1994). En un sentido similar, la constante de aprendizaje del
modelo puede verse como un factor que afecta o controla la velocidad, o
tasa de cambio de W.
Mediante una sencilla sustitucin puede mostrarse que la funcin
generalizada del modelo Lin-Lee permite representar la regla hebbiana
de aprendizaje y las reglas propuestas para explicar los mecanismos de
PLP y DLP:
r = B y x = A (regla hebbiana)
r = L d y [ ; )] B y x = A (regla de DLP)
r = L d y [ ; )] y x = A (regla de PLP)
La plasticidad sinptica asociada a los procesos neurobiolgicos de
aprendizaje, puede ser definida matemticamente en trminos de una
funcin dinmica de estado. Si consideramos a la seal de aprendizaje r
como una funcin cualquiera, tal que r = f[ x, W(t), d], entonces la
ecuacin dinmica de estado es expresada de la siguiente manera:

w t
t
( )
= f[ x, W(t), d]x
La estructura del tejido nervioso de la corteza cerebelar y de la
Oliva tiene una caracterstica que debera contemplar una ecuacin
dinmica del aprendizaje: con el tiempo tiende a cero. Las teoras
computacionales de aprendizaje cerebelar planteadas por Houk y cols.
Convergencia y estabilidad de las funciones de aprendizaje


44
(1997), han sido sometidas a prueba emprica desde dos perspectivas
diferentes: experimentos de simulacin computacional, y tcnicas de
visualizacin neurocerebral, tales como la tomografa por emisin de
positrones (TEP) y la imagen de resonancia magntica funcional (IRMf)
(Thach, 1997). Flament y Ebner (1997), por ejemplo, reportan haber
realizado un estudio de IRMf en el cual se peda a los sujetos humanos
seguir con un dispositivo de joystic el cursor que apareca en una
pantalla de computador. En este caso, la dificultad de la tarea (una
compleja transformacin sensorio-motriz de posicin cursor/joystic) fue
observada en tres condiciones: (i) cuando la relacin del movimiento
cursor/joystic era directa, (ii) cuando se inverta especularmente la
relacin (inversin bidimensional de las direcciones horizontal y
vertical), y (iii) una relacin que oscilaba aleatoriamente entre cuatro
alternativas diferentes. Los resultados mostraron una mayor actividad
cerebelar en los primeros ensayos de las dos primeras condiciones, y
tambin durante gran parte de la prueba bajo condiciones aleatorias.
Parece existir una correlacin negativa entre el ndice de desempeo y la
actividad cerebelar. Entre ms alta era sta, ms bajo aquel, y por lo
tanto, mayor cantidad de errores de movimiento se presentaban. Cuando
la ejecucin mejoraba con el tiempo, la actividad cerebelar decreca
hasta alcanzar bajos niveles.
Los hallazgos obtenidos con tomografa por emisin de positrones
(Flament y Ebner, 1997; Sultan y cols., 1997; Thach, 1997), apoyan la
hiptesis que concibe al cerebelo, y particularmente al rea cortical de
ste, como un sistema que tiene la funcin de actuar como un sistema de
FABIO E. MARTINEZ C.

45
aprendizaje que tiene por objeto: (a) tomar la informacin computada
por la oliva inferior la seal del error detectado somato-
sensorialmente en la ejecucin del movimiento, y (b) aplicar una funcin
de aprendizaje, por ejemplo la DLP o la PLP. En estos procesos
neurobiolgicos de aprendizaje, se observa que un decremento gradual
de la actividad en el tejido cortical del cerebelo, correlaciona con la
ejecucin correcta de los patrones de movimiento muscular (Houk y
cols., 1997a).
La funcin conexionista de plasticidad sinptica conduce al sistema
a un estado estable, es decir, un estado o configuracin (W) que se
mantiene en el tiempo y que es resistente a las perturbaciones
ocasionadas por ejemplo por el aprendizaje de nuevas tareas. La
estabilidad es una propiedad que tiene una profunda relacin con el
espacio de fases, y especialmente con las regiones de ste hacia donde
convergen los estados del sistema definidos por la W. Estos son los
estados de equilibrio hacia donde tienden las trayectorias de la funcin
dinmica conexionista w (t). En el captulo siguiente se expondrn los
aspectos centrales de la teora de sistemas dinmicos no lineales que
permiten evaluar los estados de equilibrio estables que puede tener esta
funcin.
Convergencia y estabilidad de las funciones de aprendizaje


46






APRENDI ZAJ E, PLASTI CI DAD Y ESTABI LI DAD

Al filo del tiempo... la funcin converge a nada!

El vuelo de una mariposa es un arquetipo de armona y belleza. Es
un smbolo del magnfico ingenio de la naturaleza y adems, de la
fatdica fragilidad de los seres. El vuelo de los colibres llega a
sorprender tambin, por el lmpido y gracil andar de su vuelo. Esttico,
como detenido en el tiempo por manos invisibles, parece inconcebible
verlo arrostrando las violentas perturbaciones que en ocasiones suelen
azotar el aire. Volar requiere alas, y por eso la humanidad, resignada a
volar por s misma tan slo en sueos, ha diseado aviones y
helicpteros. En aparatos como estos, la estabilidad del vuelo es vital,
para los pasajeros, para los tripulantes, y tambin para el buen nombre
de la aerolnea!. Un error, un solo descuido puede costar muchas vidas.
Una vez ms, aprender a volar, a posarse en la Luna (o en Marte quiz),
es fruto del conocimiento adquirido durante siglos mediante la
observacin de los pjaros y los insectos, y lo que escribi Aristteles
(384-322 A.C.) sobre estos ltimos puede haber sido tan importante para
la comprensin humana de la variabilidad del comportamiento animal,
como fueron los anlisis que Leonardo da Vinci hizo acerca de la
estabilidad de mquinas voladoras, para el diseo del avin supersnico
Concorde.
FABIO E. MARTINEZ C.

47
Los estados de equilibrio de un sistema dinmico pueden tratarse
en dos categoras: estables e inestables. La estabilidad es la propiedad
por la cual las trayectorias del sistema, an bajo condiciones de
perturbacin o ruido en las condiciones iniciales, permanecen acotadas
por el radio de atraccin del estado de equilibrio. Un atractor
gravitatorio es uno de los mejores ejemplos en fsica para describir estos
conceptos. Imagine un cometa de 1200.000 kilmetros de dimetro
acercndose a usted a varios miles de kilmetros por hora. Una pizca de
perturbacin en el campo gravitatorio del Sistema Solar que expulsara
de su rbita esa masa de hielo le dara alguna nfima esperanza de salir
vivo. Nadie quisiera estar en el radio de atraccin de un cometa.
Supongamos que realmente no slo se acerca, usted es el punto central
de esa regin. Si se requiere una perturbacin relativamente grande
la explosin de una supernova para sacar al cuerpo de su rbita,
significa que el cometa posee un estado de equilibrio estable. Si una
parte infinitesimal de ruido (el aleteo de una mariposa) lo saca de su
rbita, el comportamiento del sistema es catico y por lo tanto puede ser
muy plausible salir con vida de la historia. El cometa Holmes,
observado en 1892 es uno de esos ejemplos de partculas con estados
atractores con equilibrio estable.
El trmino atractor es un concepto central en el anlisis de la teora
de los sistemas dinmicos (brevemente, teora dinmica). En ella los
atractores son puntos o regiones del espacio de fases hacia los cuales
convergen las trayectorias del sistema bajo diferentes condiciones
iniciales. En un espacio de tres dimensiones la neurona anmala
mencionada en el captulo anterior los puntos atractores ms extremos
Convergencia y estabilidad de las funciones de aprendizaje


48
son ocho (las esquinas del cubo), pero en un espacio de fases
hiperdimensional de conexiones, tal como el cerebro, la interpretacin
de los atractores se hace menos evidente. Los atractores son tendencias
o patrones regulares de comportamiento de un sistema dinmico y se
producen como resultado de la interaccin entre las variables estado (w)
y la dimensin tiempo. Cada regla o ecuacin de aprendizaje, es una
funcin dinmica que debe garantizar que con el tiempo el sistema
conexionista llegar a converger en un estado estable de equilibrio
global. Esto es as porque el grado de variabilidad (o plasticidad) de las
conexiones sinpticas (w) decrece a medida que transcurre el tiempo.
Las funciones o reglas de aprendizaje actan como funciones de
estabilidad puesto que, bajo los supuestos planteados por la teora
computacional de Vapnik-Chervonenkis-Valiant, garantizan que despus
del entrenamiento, la matriz de configuracin sinptica del sistema
conexionista en cuestin es consistente con todos los ejemplos de prueba,
y no requiere modificaciones adicionales durante la fase de
generalizacin.
Para estudiar analticamente la estabilidad de un estado de
equilibrio se hace uso de las nociones de estabilidad uniforme y de
convergencia. La estabilidad uniforme se presenta cuando una
trayectoria debe mantenerse en las inmediaciones del estado de
equilibrio, si el estado inicial es cercano a ste. Se dice que una
trayectoria convergehacia un estado de equilibrio cuando la trayectoria
de un estado inicial se aproxima a un estado de equilibrio a medida que
el tiempo tiende a infinito. Un estado de equilibrio es asintticamente
FABIO E. MARTINEZ C.

49
estable si cumple con las dos propiedades anteriores, y tiene
estabilidad asinttica global si todas las trayectorias del sistema
convergen a un nico estado de equilibrio en la medida en que el tiempo
se aproxima al infinito.

Funciones de convergencia del tipo Lyapunov
Para evaluar las propiedades de estabilidad de un sistema dinmico
no lineal por ejemplo, el sistema nervioso los matemticos hacen uso
de los procedimientos introducidos por Lyapunov en la primera parte del
siglo XX, y que en conjunto reciben el nombre de mtodo directo de
Lyapunov (Devany, 1989; Haykin, 1999; Rovithakis, 1999; Spong,
1996). El postulado fundamental de Lyapunov supone un sistema
autnomo, es decir, un sistema cuyo comportamiento es especificado por
una regla de transformacin que no depende explcitamente del tiempo
la funcin dinmica de estado W(t) es un ejemplo de esta clase de
sistemas y que es expresada matemticamente a travs de un conjunto
de ecuaciones diferenciales que describen la trayectoria de estado.
El teorema de Lyapunov asegura la estabilidad asinttica de esta
clase de sistemas si se encuentra por lo menos una funcin dinmica de
estado, positiva, continua y que decrezca con el tiempo. Analticamente
se evala este ltimo requerimiento calculando la derivada de la funcin.
El estado de equilibrio es estable y puede presentarse en forma de ciclos
lmite (movimientos peridicos de las trayectorias) y oscilaciones cuando
la derivada es menor o igual a cero:

W t
t
( )
0
Convergencia y estabilidad de las funciones de aprendizaje


50
Cuando es estrictamente negativa el sistema es asintticamente
estable. Una funcin que satisfaga estas condiciones es denominada
funcin de Lyapunov y es suficiente encontrar alguna para garantizar
que el sistema es asintticamente estable. El hecho de no encontrar una
funcin de este tipo, no nos puede arrastrar a la conclusin de que el
sistema no posee estados estables de equilibrio, es decir, que la
existencia de una funcin de Lyapunov es condicin suficiente pero no
necesaria para asegurar la estabilidad global de un sistema dinmico no
lineal.
Evaluar las condiciones de equilibrio y estabilidad de la actividad
neuronal, es un desafo que ha dado como fruto buena parte de los
trabajos ms importantes en redes neuronales artificiales. Autores como
el nobel de fsica, John Hopfield, y los neurocientficos Michel Cohen y
Stephen Grossberg, han presentado a luz pblica estudios sobre la
estabilidad de redes neuronales que se apoyan en la teora dinmica
(Hopfield, 1982; 1984a; 1984b; Cohen y Grossberg, 1983; Cohen,
1992a; 1992b; Grossberg, 1990). Hopfield, se acerc al estudio de las
propiedades estables de una clase de sistemas neurocomputacionales
estocsticos y asincrnicos denominados memorias auto-asociativas
(Anderson, 1968; 1983; Lin y Lee, 1996). Por la misma lnea, Cohen y
Grossberg establecen criterios analticos para demostrar la estabilidad
de otra clase de sistemas conexionistas, aquellos que estn basados en el
principio de inhibicin lateral. Tanto estos modelos, como las memorias
auto-asociativas de Hopfield son casos especiales de modelos de auto-
organizacin fundamentados en el postulado hebbiano de aprendizaje.
FABIO E. MARTINEZ C.

51
Ambas aproximaciones hacen uso de una analoga con el
concepto fsico de energa para explicar los procesos de estabilizacin y
convergencia de la actividad neuronal hacia estados atractores.
Preguntarle a un fsico qu es la energa es quiz una de las mejores
formas de sumirlo en profundas reflexiones existenciales. En este
contexto, la energa es concebida como una funcin que define una
medida matemtica abstracta de la capacidad para ejercer trabajo
(Feynman, Leighton y Sands, 1964); esta nocin, junto con el tiempo y
la materia, son componentes esenciales del universo fsico. Es tambin
un concepto muy estrechamente relacionado con el trmino entropa:
la medida de la energa disponible en un sistema termodinmico
cerrado, o tambin, una medida del grado de desorden o incertidumbre
que tiene la informacin.
La segunda ley de la termodinmica postula que un sistema
cerrado, es decir, un sistema que no intercambio energa con una fuente
externa, con el tiempo converge a un estado de equilibrio global de
mxima entropa. Por ejemplo, en un cuarto cerrado el humo (o los
tomos que lo componen) de un cigarrillo encendido tiende a ocupar
todo el espacio, siendo la ocupacin total del volumen, el estado de
mxima entropa de este sistema. La hiptesis segn la cual los estados
de equilibrio termodinmico tienen propiedades de estabilidad global
permite comprender por qu la nocin de energa es aplicada al estudio
de los atractores de la actividad dinmica de los sistemas conexionistas.
El espacio de fases de una funcin de energa E(t) representa en
cada punto del volumen la cantidad de energa que posee el sistema en
un instante particular t. Tericamente se establece que la actividad de
Convergencia y estabilidad de las funciones de aprendizaje


52
un sistema es estable cuando los valores de energa (determinados por
E(t)) tienden a caer convergen en estados atractores que minimizan
la energa. Cuando mediante la aplicacin del mtodo directo de
Lyapunov se puede calcular que existe un valle o cuenca (radio) de
atraccin cuya profundidad es mayor que la de los dems, se concluye
que el sistema posee un estado global de equilibrio (estabilidad global
asinttica) y por lo tanto, que la funcin E(t) es una funcin del tipo
Lyapunov:

E t
t
cuando t
( )
0
En un artculo ya clsico, Cohen y Grossberg (1983) formularon un
teorema que impone lmites tericos a la convergencia global de los
atractores que poseen los sistemas basados en principios de auto-
organizados neuronal. Con este teorema se puede garantizar la
existencia de, por lo menos, una funcin E(t), continua y derivable, cuyas
trayectorias tienden a estados globales de equilibrio si el sistema en
cuestin tiene una matriz de conexiones (W) simtrica:
W
(A)(B)
= W
(B)(A)

La simetra representa un mecanismo hipottico de
retroalimentacin por medio del cual, la accin de las clulas
postsinpticas afecta en direccin retrgrada la actividad presinptica.
Las restricciones dinmicas que impone una matriz de este tipo
conllevan a la formacin de estados de equilibrio en la actividad del
sistema, y por ende a la formacin de patrones globales de actividad,
FABIO E. MARTINEZ C.

53
fenmeno caracterstico de los modelos de auto-organizacin basados
en la regla hebbiana de aprendizaje.
Al igual que las funciones de energa postuladas por el teorema de
Cohen-Grossberg, una funcin de aprendizaje conexionista (W),
tambin tiene estados de equilibrio globalmente estables. La Teora
Vapnik-Chervonenkis-Valiant, mediante su concepto de Convergencia
Uniforme, muestra que tericamente la hiptesis de estabilidad de las
funciones conexionistas de aprendizaje por retroalimentacin del error
garantiza la convergencia a cero.

W t
t
cuando t
( )
0
Desde la perspectiva computacional, los experimentos de
simulacin realizados con la regla de aprendizaje del perceptrn de
Rossenblatt (1958) y la regla de aprendizaje por retropropagacin del
error de Werbos (1974) se caracterizan porque a medida que progresa el
entrenamiento, el valor de la funcin de error converge progresivamente
hasta cero:
d w t
d t
cuando t
( )
0
Frank Rosenblatt (1958) present una demostracin analtica,
conocida como el teorema de convergencia del perceptrn, el cual
asegura que la funcin de aprendizaje del perceptrn converge a cero a
medida que transcurre el entrenamiento:
d w t
d t
d y x t cuando t
( )
( ) ( ) = 0
Convergencia y estabilidad de las funciones de aprendizaje


54
Por su parte, la regla de retropropagacin garantiza que mediante
la iteracin de la funcin de aprendizaje, y suponiendo que el nmero de
actualizaciones tiende a infinito, la configuracin de las conexi ones
sinpticas del sistema puede conducir al mnimo error cuadrtico de una
funcin de error (Hernndez y Nio, 1996). En la demostracin
matemtica de Werbos (1974) y de Rumelhart y col. (Rumelhart y col.,
1986) la derivada de la funcin de error con respecto a los parmetros
libres del sistema (ej: su matriz de conectividad sinptica W) logra
minimizar la funcin de aprendizaje:
d w t
d t
t
w t
cuando t
( ) ( )
( )
=

0
Donde E(t) representa cualquier funcin de prdida L d y [ ; )] .
En este caso, al igual que en los anteriores, la funcin de
aprendizaje es decreciente. Sin embargo, su implementacin algortmica
contiene ciertos requerimientos de aleatoriedad que afectan la propiedad
de convergencia de la regla, haciendo que exista una probabilidad de
que el sistema quede atrapado en estados atractores inestables, o en
otros trminos, situaciones en las que las trayectorias del sistema no
convergen uniformemente.
Se puede as concluir que las funciones conexionistas de
aprendizaje tienden a estados de equilibrio que, a la luz del mtodo
directo de Lyapunov para evaluar la estabilidad en un sistema dinmico,
convergen uniformente hacia estados atractores estables. En las reglas,
o funciones de aprendizaje discutidas, la configuracin de las conexiones
sinpticas debe conducir a un punto atractor, un estado de equilibrio
FABIO E. MARTINEZ C.

55
global que tiene asntota en cero (ej.: ausencia total de actividad
sinptica).
Los hallazgos experimentales de Flament y Ebner (1997)
corroboran la propiedad de estabilidad de las reglas de aprendizaje
implicadas en el desarrollo y la plasticidad sinptica de la corteza
cerebelar. Segn estos autores, existe una correlacin negativa entre la
actividad cerebelar y el Aprendizaje: cuando la ejecucin mejora con el
tiempo, es decir, cuando los errores de movimiento caen en un valor
mnimo, la actividad de la corteza cerebelar decrece hasta sus niveles de
base (previos al entrenamiento). Tal como puede apreciarse en una tarea
sencilla de aprendizaje manual, es la repeticin constante, la prctica, la
que permite a los diversas sistemas neuronales involucrados en el
control de secuencias de movimientos, establecer los patrones
caractersticos de actividad que controlan cada contraccin muscular.
En otras palabras, a partir de la repeticin del movimiento se establece
una estructura funcional motora, una configuracin neuronal de tejido.
Las conexiones en la corteza del cerebelo y en los ncleos neuronales
asociados a ste se organizan siguiendo un mecanismo metablico (las
reglas de aprendizaje DLP y/o PLP), el cual, aplicado reiterativamente,
hace que el sistema completo de control neuromotor llegue a estados de
equilibrio estables, que perduran en tanto se practique regularmente una
secuencia de movimiento en particular (Ej.: una figura de papel o las
sonatas para piano de Beethoven).
Desde una perspectiva conexionista, la solucin a un problema
motor de aprendizaje, puede ser considerada en trminos del grado de
estabilidad de las conexiones en la corteza cerebelar. Cuando todos los
Convergencia y estabilidad de las funciones de aprendizaje


56
pasos necesarios para llevar a trmino un modelo de origami se llevan a
cabo sin errores y de manera casi automtica, es entonces cuando se
puede asegurar la estabilidad de la actividad neuronal del cerebelo y de
otras regiones relacionadas con el aprendizaje de secuencias de
coordinacin sensorio-motora. A partir de ese momento, las sinapsis
detienen (o minimizan) su transformacin en tanto no se vuelva a
entrenar otra figura, hecho que ocasiona una perturbacin que activa
nuevamente los mecanismo de reorganizacin neuronal.
Hallar que un proceso de plasticidad (o variabilidad sinptica) en
la configuracin neuronal tiene tendencia a minimizarse o aproximarse a
un nivel de actividad cero en el espacio de fases, es un indicio de que la
funcin que determina la reorganizacin de las conexiones ha de ser una
funcin de energa (o funcin del tipo Lyapunov). Las funciones
conexionistas de Aprendizaje estipulan que el tejido nervioso tiende a
caer en un estado de mnima energa, un estado de entropa en el que las
posibilidades de cambio y desarrollo neuronal, son cada vez ms
restringidas. En otras palabras, a costa de la perfeccin del equilibrio y
del deseo de no errar (el anhelo de todo aquel para quien aprender es
una fuente de perfeccionamiento), la plasticidad sinptica llega a
congelarse en el tiempo, como los anillos de humo se difunden y
terminan en el aire inmovil de los templos cognitivos.
Errare humanum est...
FABIO E. MARTINEZ C.

57







DISCUSION Y APORTES A LA CIENCIA COGNITIVA

"La vida me ha confiado su secreto: yo soy me ha dicho
aquello que debe siempre superarse a s mismo"
F. Nietzsche, en As Hablaba Zaratustra

En los captulos precedentes he intentado establecer los principios
de retroalimentacin y estabilidad que gobiernan la actividad sinptica
segn el modelo neurodinmico del conexionismo para interpretar una
funcin hipottica que representa el proceso de adaptacin y desarrollo
de las conexiones sinpticas durante un procedimiento computacional de
aprendizaje. La estabilidad dinmica de estas funciones fue discutida
desde el punto de vista de la Teora Dinmica y la Teora Computacional
del Aprendizaje de Vapnik-Chervonenkis-Valiant. Adems, he
presentado varias perspectivas que soportan los argumentos tericos de
convergencia y estabilidad asociados a la plasticidad sinptica. En
suma, he llevado a cabo un anlisis terico del aprendizaje con las
herramientas que me puede brindar el paradigma conexionista. En este
ensayo final quiero hacer una reflexin acerca de las implicaciones que
tiene el anlisis anterior para la formulacin de modelos cognitivos
neurodinmicos, y en general, para la comprensin computacional de los
fenmenos de plasticidad y auto-organizacin cerebral
Comenzar con la pregunta cmo analizar la estabilidad del
pensamiento humano y de los modelos conexionistas de adquisicin de
conocimiento, si estn sujetos a procesos de desarrollo ontogentico? En
Convergencia y estabilidad de las funciones de aprendizaje


58
una aproximacin reciente, Thelen y Smith (1994) han comenzado a
explorar la Teora Dinmica para aplicarla a los modelos de cognicin y
desarrollo ontogentico. Las autoras se apoyan en esta teora similar
en trminos formales a los modelos PPD del Conexionismo (Edelman,
1987) para establecer las bases conceptuales de un modelo dinmico
del desarrollo ontogentico, y en particular, de los fenmenos de
categorizacin perceptual y aquellos otros involucrados en la
generacin de habilidades motoras en los infantes humanos (Thelen y
Fisher, 1982; Thelen, 1984; Thelen, Kelso y Fogel, 1987; Butterworth,
1994).
Un argumento propuesto por Thelen y Smith (1994), y coherente
con los planteamientos que he elaborado hasta ahora, establece que el
aprendizaje y el desarrollo ontogentico de los individuos son dos
procesos relacionados y diferenciables segn la escala de tiempo que se
desee observar. En efecto, asumiendo que ambos son procesos que
conllevan a cambios en la organizacin de un sistema dinmico
(fenmenos de plasticidad), el aprendizaje representa una forma de
adquisicin de patrones de comportamiento estable en una escala de
tiempo real, por ejemplo, los segundos durante los cuales se lleva a cabo
una accin inmediata o una secuencia de movimientos particular (como
mover la mano hacia una pantalla de computador o plegar el ala de una
mariposa de papel). Este tipo de comportamiento es "estable y
predecible en alguna de sus caractersticas, pero variable, flexible y
adaptativo en cada ocasin" (Thelen y Smith, 1994, pg. 73).
FABIO E. MARTINEZ C.

59
El desarrollo cognitivo, por otra parte, puede ser representado
en una escala de tiempo ontogentica, que abarca semanas, meses y aos
(especialmente los primeros), de la historia de vida de un individuo. El
aprendi zaje (sea el resultado de procedimientos de repeticin,
reforzamiento, observacin, instruccin, o el que fuere) implica el
ensamblaje de cada accin inmediata con otras, lo cual en el trmino de
das, meses y aos se transforma en parte de la historia de experiencias
del individuo. Semejante nivel de amalgama temporal hace que "la lnea
entre el aprendizaje y el desarrollo sea particularmente difusa" (Thelen y
Smith, 1994, pg. 74).
Sin embargo, puedo argir adicionalmente que los estados de
equilibrio estable del desarrollo ontogentico difieren en complejidad a
los establecidos mediante el aprendizaje. Por ejemplo, siguiendo la
distincin que existe entre las caractersticas mtricas y estructurales del
movimiento (Swinnen, Walter y Dounskaia, 1997), el aprendizaje
paramtrico, es decir, el ajuste por ensayo y error de caractersticas
tales como la frecuencia, la duracin y la amplitud de una clase de
movimiento, tiene un orden de complejidad inferior al aprendizaje de
nuevas formas de movimiento o topologas adquiridas durante el curso
de la vida ontogentica de un organismo. En tanto el primer tipo de
aprendizaje (ampliamente explicado por las investigaciones del
funcionamiento cerebelar) tiene estados atractores que tienden a
minimizar con el tiempo la cantidad de error en la ejecucin de una
accin especfica, es decir, tienen convergencia asinttica, la estabilidad
de los estados de equilibrio que caracterizan el desarrollo ontogentico
deben ser, por naturaleza, dinmicamente ms complejos, por varias
Convergencia y estabilidad de las funciones de aprendizaje


60
razones, de las cuales puedo citar por lo menos dos. En primer lugar,
debe considerarse que los criterios de error de las nuevas formas de
organizacin que surgen a lo largo del desarrollo, o el desempeo
ptimo de una funcin en un estado dado, son sumamente difciles de
determinar, o acaso quin puede decir qu es perfecto en el gatear de
un nio?
Por otra parte, los cambios hipotticos que se producen en la
organizacin del comportamiento (cambios en el espacio de fases) deben
responder por la variedad de estados estables en un individuo. Por
ejemplo, deben dar cuenta de las diferentes etapas que caracterizan la
vida de una persona, desde que se arrastra por el suelo (en su primeros
meses de existencia humana) hasta sus formas ms sofisticadas de
movimiento tales como bailar ballet, gatear, caminar, resolver
rompecabezas, estudiar lgebra lineal, correr los cien metros planos o
saltar en paracadas. La naturaleza discontinua de algunos de estos
cambios (lo que en otros trminos se conoce como saltos cualitativos en
el desarrollo) implica que las transformaciones de la cognicin no han
de ser necesariamente suaves ni progresivamente incrementales (o
decrementales como en el caso de la funcin de error del aprendizaje),
sino que durante el desarrollo se observa la aparicin, desaparicin o
regresin sbita de ciertas formas de comportamiento que en su
momento fueron estados atractores estables (Thelen y Smith, 1994). Este
tipo de reorganizacin puede observarse en las diferentes etapas que
constituyen el desarrollo cognitivo, como por ejemplo el origen
ontogentico de la actividad sensorio-motriz humana, as como tambin
FABIO E. MARTINEZ C.

61
de las transiciones en la locomocin que permiten tanto el gateo como
los estilizados movimientos que se ejecutan en el ballet clsico.
Desde la teora de los sistemas dinmicos, la idea anterior implica
que, durante el desarrollo, adems de puntos atractores, se pueden
presentar tambin cambios de fase hacia estados atractores de ciclo
lmite, es decir trayectorias que describen un movimiento cclico en el
espacio de fases. Para dar una idea de lo que sto significa, imagnese
el lector situaciones en las cuales la mayora de los humanos
presentamos fases de transicin peridicas en nuestro comportamiento.
Por ejemplo, el movimiento de las piernas en una caminata campestre o
el rudo pataleo que caracteriza la vida cotidiana de un infante de seis
meses de edad. Estos son comportamientos con atractores cclicos y
perodicos.
Tales cambios en el espacio de fases se corresponden con estadios
en el desarrollo y otros fenmenos de transicin que tienen lugar cuando
el sistema se mueve de un tipo de organizacin a otro (Buttervoth, 1994;
Thelen y Smith, 1994). En un rden de complejidad superior, la Teora
Dinmica contempla el desarrollo de atractores caticos, aquellos en los
que cambios relativamente pequeos en las condiciones iniciales afectan
radicalmente el comportamiento global del sistema (recuerdese por
ejemplo el radio de atraccin del cometa Holmes). Sin embargo, no es
mi intencin profundizar en esta monografa sobre el tipo de
consecuencias que trae consigo el anlisis de estabilidad de los
atractores caticos sobre la propuesta de plasticidad neurodinmica del
desarrollo ontogentico.
Convergencia y estabilidad de las funciones de aprendizaje


62
Si la aproximacin neurodinmica del aprendizaje permite analizar
tericamente las transformaciones que ocurren durante la plasticidad
del sistema nervioso, debera en principio ser posible igualmente
construir una funcin neurodinmica generalizada del desarrollo
cognoscitivo. Estudiar la estabilidad de las variaciones de la matriz de
conexiones sinpticas de esta funcin permitira a la investigacin
neurocientfica encontrar los patrones de equilibrio que gobi ernan la
actividad cerebral a lo largo del desarrollo de un individuo, patrones
que desde una teora neurodinmica son la base fundamental para la
emergencia de cualquier funcin cognoscitiva. La tarea no es por cierto
insignificante; una funcin dinmica del desarrollo ontogentico,
matemticamente expresada, debe estar en capacidad de explicar, en
palabras de Butterwoth, "por qu ciertas formas de organizacin son
ms estables que otras; cmo puede el crecimiento gradual de un sistema
resultar en una reorganizacin sbita y radical en tanto se alcanza un
nuevo equilibrio; cmo formas complejas pueden ser derivadas de sus
precursoras, y por qu el control del comportamiento reside en la
interrelacin entre subsistemas constituyentes" (Butterwoth, 1994, pg.
172).

Aportes a la Psicologa
Los prejuicios que nos formamos del mundo tienden a crear
barreras para el pensamiento, de tal manera que an sin proponrnoslo,
logran encauzar el tipo de lecturas que hacemos de la realidad y de los
textos que constituyen el material de trabajo para nuestros sentidos. El
FABIO E. MARTINEZ C.

63
conocimiento objetivo y neutral no es ms que un anhelo, una quimera
cientfica que en la prctica escapa a nuestras posibilidades en tanto
nuestro propio razonamiento se halla sesgado por ideas preconcebidas
acerca de lo que debe y no debe ser, en tanto estamos obligados a
interpretar la realidad y a elaborar juicios sobre los hechos que la
constituyen. La lectura que hice del aprendizaje no est exenta de esta
clase de prejuicios, as como tampoco est libre de ellos la
interpretacin que pueda hacer el lector de las ideas expresadas en los
prrafos que componen mi monografa.
Ciertamente, existen en psicologa otras perspectivas tericas de los
fenmenos de aprendizaje que provienen principalmente del Anlisis
Experimental del Comportamiento. La aproximacin que se ha llevado a
cabo en este campo, al igual que las elaboraciones de la teora
computacional y de la teora neurodinmica del aprendizaje, enfatizan
los aspectos cuantitativos del mismo, es decir, intentan establecer formas
objetivas de medicin psicomtrica que puedan dar cuenta de los datos
recogidos en la investigacin experimental, especialmente en el estudio
de los organismos biolgicos. Este paradigma otorga prelacin al
anlisis de los mecanismos de control que puede ejercer el medio
ambiente sobre el comportamiento del organismo, relegando el
funcionamiento propio de ste a un segundo plano, a un papel pasivo
(receptor de estmulos) frente a las condiciones operadas por el
ambiente.
Por otra parte, el Paradigma Conexionista, estrechamente
vinculado a la tradicin funcionalista de la Psicologa Cognitiva y a las
teoras de procesamiento de la informacin de la inteligencia artificial,
Convergencia y estabilidad de las funciones de aprendizaje


64
destaca el papel activo del organismo al preguntarse por la forma en que
ste computa y transforma la informacin teniendo en cuenta las
consecuencias de sus acciones en el medio ambiente. Sin embargo, a
pesar de que el nfasis en la relacin organismo-ambiente cambia de un
paradigma a otro, cabe decir que los principios del Paradigma
Conexionista no rivalizan necesariamente con los modelos clsicos de
condicionamiento (pavloviano y operante). Kehoe (1989) por ejemplo,
seala la semejanza formal que existe entre el modelo de Rescorla-
Wagner (1972) y las reglas de aprendizaje utilizadas para entrenar los
sistemas neurocomputacionales de procesamiento de informacin
basados en la regla del Perceptrn de Rosenblatt (1958). Una
distincin conceptual importante entre los dos modelos radica en que,
mientras las reglas de aprendizaje conexionistas son aplicados
localmente a cada una de las unidades funcionales (las conexiones
sinpticas), la ecuacin de Rescorla-Wagner es adecuada para explicar
el comportamiento como una variable global de la interaccin observada
entre el organismo y el ambiente durante los procedimientos de
condicionamiento pavloviano. Otros autores (Barto y Sutton, 1981;
Barto, Sutton y Anderson, 1983; Sutton, 1984; Barto, 1985) han
presentado resultados de simulacin computacional que recrean con
cierto xito los efectos caractersticos de los modelos de
condicionamiento citados.
Por ejemplo, el trabajo de Barto y Sutton se ha concentrado en el
diseo de sistemas de control adaptativo cuyo funcionamiento es muy
similar al estudiado en el rea de condicionamiento operante. En estos
FABIO E. MARTINEZ C.

65
sistemas el comportamiento de la mquina tambin est regulado por
sus consecuencias en el medio en donde acta. De hecho, el anlisis de
las consecuencias del reforzamiento en el aprendizaje de mquina ha
generado un rea de trabajo que tiene como objetivo desarrollar
dispositivos adaptativos de control automtico (robots) que puedan
emular la forma en que un organismo biolgico interacta con su
entorno y encuentra las condiciones que regulan su propio
comportamiento. El aprendizaje por reforzamiento es hoy en da un
activo campo de investigacin en inteligencia artificial y aprendizaje de
mquina, y sus planteamientos proporcionan modelos analticos que
contribuyen a abrir problemas y debates en torno a los componentes
fundamentales del condicionamiento operante.
El Anlisis Experimental del Comportamiento puede hallar que un
organismo biolgico es sensible al refuerzo, pero disear un organismo
artificial que efectivamente sea sensible al refuerzo requiere una labor
ms profunda de abstraccin, as como tambin, exige una
profundizacin en el anlisis de las variables necesariamente implicadas
en estas formas de aprendizaje. En tanto la investigacin neurodinmica
contribuye a ampliar el campo explicativo del Conexionismo en el rea
de la psicologa experimental, pueden considerrseles, o bien como una
fuente de herramientas heursticas, o como una alternativa terica y
experimental en s misma. Aquello que dictaminan los modelos
realmente tiene lugar en la realidad de lo que es modelado? Si
decidimos que los modelos conexionistas son simplemente
aproximaciones tiles para sugerir propuestas metodolgicas en el
anlisis del comportamiento, seguirn teniendo un valor puramente
Convergencia y estabilidad de las funciones de aprendizaje


66
heurstico; pero si suponemos que los principios conexionistas pueden
decir algo ms acerca del objeto de estudio modelado (ej.: los
fenmenos cognoscitivos) entonces se convierten en modelos
conceptuales vlidos que guan nuevos horizontes de trabajo terico.
Evidentemente, comparto sta ltima aproximacin.
Con respecto al nivel de abstraccin que he utilizado, me parece
importante observar que la formalizacin analtico-matemtica ha sido
usualmente utilizada en teoras cientficas altamente desarrolladas tales
como la fsica cuntica, la biologa y las ciencias de la computacin,
como una necesidad para representar el nivel de complejidad
involucrado en sus respectivas reas de estudio. En documentos previos
a esta elaboracin final, haba sacrificado la instanciacin sobre casos
particulares en favor de la generalidad de explicacin del problema.
Esta carencia de referentes empricamente verificables (o vlidamente
falseables si se quiere), haba limitado la comprensin de su
conveniencia y contribucin a la psicologa.
Despus de ensayo y error, llegu a comprender que posiblemente
haba construido una nube terica altamente susceptible de desaparecer
en la lluvia de ideas que se arremolinan caticamente en mi cerebro
cada vez que pensaba en la argumentacin de mi tesis. Puesto que no
deseo semejante tragedia, he de establecer hiptesis de trabajo que
puedan verificar empricamente la propuesta de anlisis del Aprendizaje
que he expuesto. Debido a que se trata de un campo ms amplio, que
afecta tanto a las descripciones de comportamiento de los organismos
naturales como a los diseos de seres artificialmente creados (sea en
FABIO E. MARTINEZ C.

67
circuitos integrados y digitales, o en procedimientos de simulacin
neurocomputacional), es evidente que las hiptesis formuladas deben ser
consistentes con los datos empricos encontrados en todas estas fuentes.
He mostrado cmo la aplicacin de los principios de convergencia
y estabilidad asinttica a las funciones conexionistas, y su formulacin
como funciones del tipo Lyapunov, me ha permitido concluir que el
aprendizaje implica una disminucin progresiva de la plasticidad
sinptica y que es tambin una funcin de energa. A partir de este
razonamiento y de otros planteamientos del Paradigma Conexionista
expuestos a lo largo de esta monografa, me es posible derivar algunas
conjeturas que pueden ser susceptibles de falseabilidad terica y
verificacin emprica.
Corroboracin de los datos hallados en los paradigmas
tradicionales de aprendizaje. La aplicacin masivamente paralela de
las funciones dinmicas de aprendizaje conexionista debe estar en
capacidad de simular los datos observados en otros procedimientos de
aprendizaje tales como el condicionamiento pavloviano y operante. Si el
modelo recurre tan slo a los principios de anlisis del Conexionismo y
explica estadsticamente la mayor parte de la varianza de los resultados
empricos, la teora se hace ms robusta. Los trabajos de Barto, Kehoe y
Sutton, realizados en este sentido, apoyan esta conjetura, no obstante, es
claro que hace falta investigacin adicional en el asunto.
Modelos computacionales de procesamiento cerebral. El anlisis
celular y biomolecular de las reglas de aprendizaje que intervienen en la
plasticidad sinptica asociada a problemas de aprendizaje motor ha
puesto interesantes restricciones a los modelos de procesamiento de
Convergencia y estabilidad de las funciones de aprendizaje


68
informacin que se han elaborado del cortex cerebelar (Marr, 1969;
Albus, 1975; Houk y Barto, 1992; Houk y cols., 1997; Houk y Alford,
1997; Houk y Barto, 1997; Kawato y Gomi, 1992). La abstraccin
conexionista de las reglas de plasticidad y aprendizaje motor tales
como la presentada en prrafos anteriores abre un campo de trabajo
en la investigacin neurocientfica, puesto que a travs de metodologas
de simulacin por computador se someten a prueba los modelos del
funcionamiento cerebral. Los frutos de esta labor sern recogidos
cuando se tenga un plano o mapa conexionista del sistema nervioso y
del cerebro, es decir, una descripcin detallada de las diferentes redes
que componen su tejido y de la forma en que interactan para formar
patrones globalmente estables de actividad neuronal.
Otras funciones neurodinmicas de estabilidad. Tericamente la
utilizacin de funciones de estabilidad provenientes de campos como la
teora de control y el paradigma matemtico de la complejidad, al ser
utilizadas como funciones dinmicas de aprendizaje en sistemas
conexionistas, y con la condicin de que incorporen alguna forma de
medida del error, deben llevar al sistema a un estado de estabilidad
neurofuncional, es decir, a un estado atractor estable para la matriz de
conexiones sinpticas. La hiptesis de estabilidad asinttica global del
aprendizaje es violada si el sistema en cuestin desarrolla mltiples
estados atractores asintticamente estables. Esta multidimensionalidad
de los atractores en el espacio de fases se opone a uno de los supuestos
bsicos de la teora de Valiant (1984): el principio de minimizacin del
riesgo emprico, el cual asegura que el sistema encuentra una y slo una
FABIO E. MARTINEZ C.

69
hiptesis que minimiza los errores del aprendizaje, es decir que existe
tan solo un punto atractor en el espacio de fases. La misma suposicin,
sin embargo tal como fue discutido en prrafos anteriores no es
necesariamente aplicable cuando el proceso cognitivo estudiado es el
desarrollo ontogentico, en donde pueden coexistir otros estados
atractores (e.: cclicos o cuasi-caticos).
Automatizacin del aprendizaje (ciencia ficcin). La estimulacin
magntica transcraneal es usada artificialmente para detener comandos
de movimiento que afectan regiones parciales del sistema
neuromuscular. A travs de este procedimiento se consigue reducir la
excitabilidad cortical durante cinco u ocho segundos (Houk y Barto,
1997). Si un neurocientfico desea producir un estado cerebral
especfico, posee los recursos y la tecnologa, y adems conoce el mapa
detallado del cerebro y los cambios en el tejido neuronal que conducen a
organizaciones estables, debera ser capaz de inducir el mismo estado en
un sistema multidimensional semejante. Esta idea se apoya fuertemente
en la hiptesis de identidad psiconeuronal, de la cual Mario Bunge
(1985) ha sido firme representante. Al igual que la nocin de
correspondencia entre los parmetros libres y las hiptesis (W H)
formulada por las teoras computacionales del aprendizaje, el principio
de identidad psiconeural de Bunge establece una correspondencia mutua
entre los procesos cognitivos y los procesos de reorganizacin neuronal,
en tanto stos son equivalentes a los primeros. La capacidad de inducir
estados semejantes de manera rpida y automtica es anloga a la
capacidad de escritura que poseen los mecanismos computacionales de
hoy en da (los PC por ejemplo). Si esto fuera posible el problema de
Convergencia y estabilidad de las funciones de aprendizaje


70
hacer comprender lo que pienso sobre las funciones conexionistas del
aprendizaje habra sido ms sencillo de resolver puesto que simplemente
me habra bastado inducir (escribir) mi estado de conocimiento en el
cerebro del lector, evitndole de esa manera la labor de lectura de este
escrito. Por el momento es una fantasa que tan slo se ha explotado en
la literatura y cinematografa de ciencia ficcin.
Aplicacin a formas complejas de aprendizaje y desarrollo. Estos
mismos principios conexionistas de computacin neuronal y aprendizaje
sinptico deben poder ser aplicados a fenmenos cognitivos ms
complejos tales como la formacin de categoras perceptuales, la
generacin del lenguaje y el desarrollo del control sensorio-motriz, el
razonamiento y las emociones. Si bien por el momento no abundan los
tratados en la materia, trabajos de ciencia cognitiva computacional tales
como los de Anderson (1983), Rumelhart y McClelland (1986), Quinlan
(1991), Grossberg (1993), Thelen y Smith (1994) y Picard (1997),
proveen a la psicologa cognitiva con un cmulo de herramientas
conceptuales que permiten explorar la suficiencia explicativa de estos
modelos.
Finalmente, considero que de alguna manera este documento
aporta elementos de anlisis para presentar una teora de naturaleza
cuntica en Psicologa. Ante la cuestin de cmo penetrar los secretos y
misterios de la magia cuntica, y cmo desentraar de ellos
interrogantes empricos, la teora neurocognitiva del conexionismo ha
postulado un constructo hipottico de naturaleza cuntica, denominado
Psicn (Quinlan, 1991). Este concepto atmico define una unidad
FABIO E. MARTINEZ C.

71
terica de la cognicin en trminos de la actividad transitoria y
cooperativa de uno o varios sistemas neuronales, es decir, ncleos
viajeros de propagacin de la actividad neuronal (Bunge, 1985). Un
fenmeno perceptual, un flujo de pensamiento, o una transformacin
sensorio-motriz por ejemplo, seran en este sentido una agregacin de
estas unidades, una estructura anloga a un molcula fsica pero
constituida por tomos denominados psicones. Las interpretaciones
neurocognitivas que se fundamentan en el nuevo conexionismo, como
por ejemplo la de Paul Churchland (1996), describen la unidad de la
cognicin de manera similar pero recurriendo a conceptos de la Teora
Dinmica. La actividad cognoscitiva es representada de esta manera
como la transformacin dinmica de patrones de activacin a partir de
su paso por una vasta matriz de conexiones sinpticas.
El cerebro y en general, todo organismo biolgico equipado con
sistema nervioso funciona como un mecanismo cuntico que tiene la
capacidad de inteligir su entorno y extractar conocimiento de l. Llevar
el orden cuntico al funcionamiento cognitivo es un prposito ambicioso,
sin embargo, ya la funcin de Schrdinger ha sido propuesta como una
funcin neurodinmica de la actividad nerviosa (Dawes, 1992). Sin ir
ms lejos, la aplicacin de los principios cunticos en neurocomputacin
ha dado como resultado productos comerciales que ya en la culminacin
del siglo XX comenzaron a tener espacio en los medios de comunicacin
masiva (ver por ejemplo: http://www.andcorporation.com).
Con todo lo anterior, creo que es posible vislumbrar el salto terico
que representan los nuevos desarrollos experimentales de la ciencia
neurodinmica con respecto a las teoras clsicas de cognicin y
Convergencia y estabilidad de las funciones de aprendizaje


72
aprendizaje. Cmo llegar la Psicologa del futuro a beneficiarse de
estas nuevas conceptualizaciones y metodologas? Esta es una pregunta
que no puedo responder con mi estado actual de conocimientos, pero
conservo una vaga esperanza de que sera una cuestin que habr de ser
abordada en lo sucesivo por la psicologa acadmica.
Por el momento, la perspectiva terica que he revisado del
aprendizaje, en la cual se considera como un proceso dinmico de
estabilizacin en las organizaciones neuronales, no es ms que un
esfuerzo tentativo para modelar la naturaleza cambiante del cerebro,
fuente primaria del pensamiento y de la transformacin del conocimiento
humano. Desde una perspectiva puramente formal, conceptualizar as
este problema puede abrirle al estudio neurodinmico de la cognicin,
un mundo de herramientas analticas tiles para profundizar en la
bsqueda de una partcula cuntica, emprendida en gran medida
gracias a la obra de Donald Olding Hebb (1949) y hecha
computacionalmente viable por el nuevo PARADIGMA CONEXIONISTA
de la inteligencia artificial.
FABIO E. MARTINEZ C.

73

Eplogo
Hasta aqu he pretendido elaborar un documento acerca de uno de
mis ms grandes pasatiempos, aprender. Me queda tan slo una vaga
esperanza de haber sido coherente, claro y expositivo, sin sacrificar por
ello el nivel de profundidad requerido. Puedo sentirme orgulloso y
alagado si el lector dispone ahora de mayores elementos para entender
los conceptos fundamentales de la Teora Neurodinmica y
Computacional expuesta con el fin de estudiar el aprendizaje, y a la vez,
ha clarificado por lo menos en parte algunas de las dudas e
interrogantes que han guiado la formulacin de esta monografa. No me
resta ms que expresar mis agradecimientos a todos aquellos seres que,
quiz sin siquiera proponrselo, han participado de una u otra forma en
mi formacin, y que durante el transcurso de mi vida han construido los
recuerdos que tengo del pasado, la pesadilla que ahora soy, y los sueos
que tejern mi futuro.

"...Despus viene el perfeccionamiento. La mano sensible de un maestro en el
arte del origami, ya no solamente repite lo aprendido, ahora comienza a imaginar
nuevas dimensiones conceptuales, ahora verdaderamente empieza el arte de
creacin humana!. Un maestro debe iniciar una labor de bsqueda por los
desafiantes universos de perfeccin que puede tener cada figura, debe aprender a
moldear y esculpir el papel con suma destreza hasta que se produzca ese hlito de
vida, en virtud del cual, el simple material se transforma en magia, en delicado
placer que escapa al anlisis escrupuloso de la forma

Convergencia y estabilidad de las funciones de aprendizaje


74


Anexo: frmulas y ecuaciones
1. Valor estadstico esperado de la funcin de prdida:
R W L d F x W dP x d ( ) [ ; ( , )] ( | ) =


2. Funcin de riesgo emprico:
R W
N
L d F x W
emp i
i
N
( ) [ ; ( , )] =
=

1
1
.
3. Funcin cuadrtica de prdida:
L d F X W d F x W [ ; ( , )] ( , ) =
2

4. Funcin dinmica generalizada de aprendizaje:
w (t) = r x
Lim
W t
t
W t
t
t

=
0
( ) ( )

= r x
donde r = f[ x, W(t), d]
5. Convergencia de las funciones neurocomputacionales de aprendizaje:
(a) regla del perceptrn:


w t
t
d y x t cuando t
( )
( ) ( ) = 0
(b) regla de retropropagacin (delta generalizada)

w t
t
t
w t
cuando t
( ) ( )
( )
=

0
donde ( ) t es una funcin cualquiera de error o prdida derivable en el
espacio W.

FABIO E. MARTINEZ C.

75
REFERENCI AS BI BLI OGRAFI CAS
Akin, E. (1993). The General Topology of Dynamical Systems. New York, American
Mathematical Study.
Albus, J. S. (1971). A Theory of Cerebellar Function. Mathematical Bioscience; 10,
25-61.
Alkon, D. L., Blackwell, G. S., Barbour, A. K., Rigler, A. K. Y Vogl, T. P. (1990).
Pattern-Recognition by an Artificial Network Derived from Biologic
Neuronal Systems. Biological Cybernetics; 62, 363-376.
Amari, S. (1990). Mathematical Foundations of Neurocomputing. Proceedings of the
IEEE; 78, 1443-1463.
Amari, S., Yoshida, K. y Kanatani, K. L. (1977). A Mathematical Foundation for
Statistical Neurodynamics. SIAM Journal on Applied Mathematics; 33, 95-
126.
Anderson, J. A. (1968). A Memory Storage Model Utilizing Spatial Correlation
Functions. Kybernetics; 5, 113-119.
Anderson, J. A. (1983). Cognitive and Psychological Computation with Neural
Models. IEEE Transactions on Systems, Man and Cybernetics; 13, 5, 799-
815.
Baker, G. L. y Gollub, J. P. (1990). Chaotic dynamics. Cambridge University Press.
Baldi, P. F. (1998). Bioinformatics: the Machine Learning Approach. Cambridge,
MIT Press.
Baquero, H., Lpez, W., Prez, A. M. y Rozo, J. A. (1995). Impacto de los modelos de
Redes Neuronales en las ciencias del comportamiento. I Congreso Nacional
de Neurocomputacin. Santaf de Bogot, Universidad nacional de
Colombia.
Baram, Y. (1989). Associative Memory in Fractal Neural Networks. IEEE
Transactions on Systems, Man and Cybernetics; 19, 5, 1133-1141.
Barto, A. G. (1985). Learning by Statistical Cooperation of Self-interested Neuron-
like Computing Elements. Human Neurobiology. 4, 229-256.
Convergencia y estabilidad de las funciones de aprendizaje


76
Barto, A. G. y Sutton, R. S. (1981). Landmark Learning: An Ilustration of Associative
Search. Biological Cybernetics. 42, 1-8.
Barto, A. G., Sutton, R. S. y Anderson, C. W. (1983). Neuronlike Edaptive Elements
that Can Solve Difficult Learning Control Problems. IEEE Transactions on
Systems, Man and Cybernetics. SMC-13, 834-846.
Barto, A. G. (1992). Reinforcement Learning and Adaptive Critic Methods. En D.A.
White y D. A. Sofge (Eds.) Handbook of Intelligent Control (pp. 469-491).
New York, Van Nostrand-Reinhold.
Bechtel, W. (1996). Connectionism and the Philosophy of Mind: An Overview. En W.
G. Lycan (Ed.) Mind and Cognition: A Reader (pp. 252-273). Oxford,
Blackwell Publishers.
Blomfield, S. y Marr, D. (1970). How the Cerebellum May Be Used. Nature; 227,
1224-1228.
Bockenholt, ULF, Rendel, L. y White III, C. C. (1990). Representation and Use of
Knowledge for Decision Making in Human, Mechanized, and Ideal Agents.
IEEE Transactions on Systems, Man and Cybernetics; 20, 2, 293-309.
Bridgeman, B. (1988). Biologa del Comportamiento y de la Mente. Buenos Aires,
Alianza Editorial.
Bunge, M. (1985). Mente y Cerebro: un problema epistemolgico. Madrid, Alianza
Editorial.
Butterworth, G. (1994). Dynamic Approaches to Infant Perception and Action: Old
and New Theories About the Origins of Knowledge. En E. Thelen y L. Smith
(Eds). Cambridge, Massachusetts, MIT Press.
Churchland, P. M. (1992). Materia y Conciencia: Introduccin Contempornea a la
filosofa de la mente. Barcelona, Gedisa Editorial.
Churchland, P.S. y Sejnowski, T,J. (1990). Neurophilosophy and Connectionism. En
W. G. Lycan (Ed.) Mind and Cognition: A Reader (pp. 224-252). Oxford,
Blackwell Publishers.
FABIO E. MARTINEZ C.

77
Churchland, P. (1996). Learning and Conceptual Change: The View from the
Neurons. En A. Clark y P.J.R. Millican (Eds.) Connectionism, Concepts and
Folk Psychology: The Legacy of Alan Turing, vol. 2 (pp. 7-43). Oxford,
Clarendon Press
Cohen, M. A. y Grossberg, S. (1983). Absolute Stability of Global Pattern formation
and Parallel Memory Storage by Competitive Neural Networks. IEEE
Transactions on Systems, Man and Cybernetics; 13, 5, 815-826.
Cohen, M. A. (1992a). The Synthesis of Arbitrary Stable Dynamics in Nonlinear
Neural Networks. II. Feedback and Universality. Intenational Joint
Conference on Neural Networks; 1, 141-146.
Cohen, M. A. (1992b). The Construction of Arbitrary Stable Dynamics in Nonlinear
Neural Networks. Neural Networks; 5, 83-103.
Compiani, M. (1996). Remarks on the Paradigms of Connectionism. En A. Clark y
P.J.R. Millican (Eds.) Connectionism, Concepts and Folk Psychology: The
Legacy of Alan Turing, vol. 2 (pp. 45-66). Oxford, Clarendon Press.
Cordo, P. J., Bell, C. C. y Hamad, S. (1997). Motor Learning and Synaptic Plasticity
in the Cerebellum. Cambridge, Cambridge University Press.
Crutchfield, J. P., Farmer, J. D., Packard, N. H. y Shaw, R. S. (1994). Caos. En A.
Fernndez-Raada (Ed.) Libros de Investigacin y Ciencia: Orden y Caos
(pp. 78-90). Barcelona, Prensa Cientfica.
Dawes, R. L. (1992). Quantum Neurodynamics: Neural Stochastic Filtering with the
Schroedinger equation. International Joint Conference on Neural Networks;
1, 133-140.
Devany, R. L. (1989). An Introduction to Chaotic Dynamical Systems. New York,
Addison Wesley Publishing Company.
Dufoss, M. (1997). How can the Cerebellum Match "Error Signal" and "Error
Correction"?. En P, J. Cordo, C. C. Bell y S. Harnad (Eds.) Motor Learning
and Plasticity in the Cerebellum (pp. 106-106). Cambridge, Cambridge
University Press.
Convergencia y estabilidad de las funciones de aprendizaje


78
Eckhorn, R., Reitboeck, H. J., Arndt, M. y Dicke, P. W. (1990). Feature Linking Via
Synchronization Amopng Distributed Assemblies: Simulation of results from
cat cortex. Neural Computing; 2, 293-307.
Eckhorn, R., Frien, A. y Bauer, R. (1994). Oscillation Frequiencies (40-90 Hz) in
monkey visual cortex depend on stimulus size and velocity. European
Journal of Neuroscience; 7, 90-94.
Eckhorn, R. (1999). Neural Mechanisms of Scene Segmentation: Recordings from the
Visual Cortex Suggest Basic Circuits for Linking Field Models. IEEE
Transactions on Neural Networks; 10, 3, 464-479.
Edelman, G. M. (1987). Neural Darwinism: The Theory of Neuronal Group
Selection. New York, Basic Books.
Fernndez-Raada, A. (1990). Libros de Investigacin y Ciencia: Orden y Caos.
Barcelona, Prensa Cientfica.
Feynman, R., Leighton, R. y Sands, M. (1964). The Feynman Lectures on Physics;
vol. 1. Massachusetts, Addison-Wesley Publishing.
Flament, D. y Ebner, T. J. (1997). The Cerebellum as Comparator: Increases in
Cerebellar Activity During Motor Learning May Reflect its Role as Part of
an Error Detection/correction Mechanism. En C.C. Bell, P.J. Cordo, y S.
Harnad (Eds.) Motor Learning and Synaptic Plasticity in the Cerebellum
(pp. 111-112). Cambridge, Cambridge University Press.
Freeman, W. J. (1996). Fisiologa de la Percepcin. En Scientific American (Eds.)
Libros de Investigacin y Ciencia: Mente y Cerebro. Barcelona, Prensa
Cientfica.
Gardner, H. (1987). La Nueva Ciencia de la Mente: Historia de la Revolucin
Cognitiva. Buenos Aires, Editorial Paidos.
Gielen, C. (1997). Cerebellum Does More Than Recalibration of Movements After
Perturbations. En C.C. Bell, P.J. Cordo, y S. Harnad (Eds.) Motor Learning
and Synaptic Plasticity in the Cerebellum (pp. 112-113). Cambridge,
Cambridge University Press.
FABIO E. MARTINEZ C.

79
Gilbert, P. F. C. (1975). How the Cerebellum Could Memorize Movements.
Nature; 254, 688-689.
Grossberg, S. (1969). On Learning and Energy-Entropy dependency in Recurrent and
Nonrecurrent Signed Networks. Journal of Statistical Physics; 1, 319-350.
Grossberg, S. (1971). Embedding Fields: Underlaying Philosophy, Mathematics, and
A lications to Psychology and Anatomy. Journal of Cybernetics; 1, 28-50.
Grossberg, S. (1976). On the Development of Feature Detectors in the Visual Cortex
with Applications to Learning and Reaction-difusion Systems. Biological
Cybernetics; 21, 145-159.
Grossberg, S. (1988). Nonlinear Neural Networks: Principles, Mechanisms, and
Architectures. Neural Networks; 1, 17-61.
Grossberg, S. (1990). Content-Addresable Memory Storage by Neural Networks: A
General Model and Global Liapunov Method. En E. L. Schwartz (Ed.)
Computational Neuroscience (56-65). Cambridge, MIT Press.
Guyton, A. C. (1994). Anatoma y Fisiologa del Sistema Nervioso: Neurociencia
Bsica. Madrid, Editorial Mdica Panamericana.
Hampson, S. E. y Volper, D. (1990). Representing and Learning Boolean Functions
of Multivalued Features. IEEE Transactions on Systems, Man and
Cybernetics; 20, 1, 67-80.
Haussler, D., Kearns, M., O er, M. y Schapire, R. (1992). Estimating Average-case
Learning Curves Using Basian, statistical physics and VC Dimension
Methods. Advances In Neural Information Processing Systems; 4, 855-862.
Haykin, S. (1994; 1999). Neural Networks: A Comprehensive Foundation. New
Jersey, Prentice Hall.
Hebb, D. O. (1949). The Organization of Behavior: A Neuropsychological Theory.
New York, Wiley.
Hernndez, G. J. y Nio, L. F. (1996). Sistemas Complejos Adaptativos. En
Memorias del Primer Congreso Colombiano de Neurocomputacin. Santaf
de Bogot, Universidad Nacional de Colombia.
Convergencia y estabilidad de las funciones de aprendizaje


80
Hirsch, M. W. (1989). Convergent Activation Dynamics in Continuous time networks.
Neural Networks; 2, 331-349.
Hinton, G. E. (1996). Redes Neuronales que Aprenden de la Experiencia. En
Scientific American (Ed.) Libros de Investigacin y Ciencia: Mente y
Cerebro (pp. 91-98). Barcelona, Prensa Cientfica.
Holden, A. V. y Winlow, W. (1983). Neuronal Activity as the Behavior of a
Differential System. IEEE Transactions on Systems, Man and Cybernetics;
13, 5, 711-719.
Hodgkin, A. L. y Huxley, A. F. (1952). A Quantitative Description of Membrane
Current and its A lication to Conduction and Excitation in Nerve. Journal of
Physiology; 117, 500-544.
Hopfield, J. J. (1982). Neural Networks and Physical Systems with Emergent
Collective Computational Abilities. Proceedings of the National Academy of
Sciences of the U.S.A; 79, 2554-2558.
Hopfield, J. J. (1984a). Neurons with Graded Response Have Collective
Computational Properties Like Those of Two State Neurons. Proceedings of
the National Academy of Sciences of the U.S.A.; 81, 3088-3092.
Hopfield, J. J. (1984b). Collective Processing and Neural States. En C. Nicollini
(Ed.) Modeling and Analysis in Biomedicine (pp. 370-389). Singapore:
World Scientific.
Houk, J. C. y Barto, A. G. (1992). Distributed Sensorimotor Learning. En G. E.
Stelmach y J. Requin (Eds.) Tutorials in Motor Behavior. Elsevier.
Houk, J. C. y Alford, S. (1997). Computational Singnificance of the Cellular
Mechanisms for Synaptic Plasticity in Purkinje Cells. En C.C. Bell, P.J.
Cordo, y S. Harnad (Eds.) Motor Learning and Synaptic Plasticity in the
Cerebellum (pp. 121-124). Cambridge, Cambridge University Press.
Houk, J. C. y Barto, A. G. (1997). More Models of the Cerebellum. En C.C. Bell, P.J.
Cordo, y S. Harnad (Eds) Motor Learning and Synaptic Plasticity in the
Cerebellum (pp. 156-160). Cambridge, Cambridge University Press.
FABIO E. MARTINEZ C.

81
Houk, J. C., Buckingham, J. T. y Barto, A. G. (1997). Models of the Cerebellum
and Motor Learning. En C.C. Bell, P.J. Cordo, y S. Harnad (Eds) Motor
Learning and Synaptic Plasticity in the Cerebellum (pp. 30-45). Cambridge,
Cambridge University Press.
INFOPEDIA (1995). InfoPedia: the Ultimate Multimedia Reference Tool. Retail
Edition v 1.1. Future Vision Multimedia
Ito, M. (1970). Neurophysiological Aspects of the Cerebellar Motor Control System.
International Journal of Neurology; 7, 162-176.
Johnson, J. L. y Padgett, M. L. (1999). Pulse Coupled Neural Networks Models and
Applications. IEEE Transactions on Neural Networks; 10, 3, 480-498.
Kandel, E. R. y Hawkins, R. D. (1993). Bases biolgicas del Aprendizaje y de la
Individualidad. En Scientific American (Ed.) Libros de Investigacin y
Ciencia: Mente y Cerebro (pp. 54-65). Buenos Aires, Editorial Paidos.
Kawato, M. y Gomi, H. (1992). A Computational Model of Four Regions of the
Cerebellum Based on Feedback-error Learning. Biological Cybernetics; 68,
95-103.
Kehoe, E. J. (1989). Connectionist Models of Conditioning: A Tutorial. Journal of
the Experimental Analysis of Behavior. 52,427-440.
Kohonen, T. K. (1989). Self-Organization and Associative Memory. New York,
Springler-Verlag.
Kolen, J. F. y Goel, J. F. (1991). Learning in Parallel Distributed Processing
Networks: Computational Complexity and Information Content. IEEE
Transactions on Systems, Man and Cybernetics; 21, 2, 359-367.
Lee, C. C. (1991). Modeling the Behavioral Substrates of Associative Learning and
Memory: Adaptive Neural Models. IEEE Transactions on Systems, Man and
Cybernetics; 21, 3, 510-520.
Lin, C.T. y Lee, C.S. (1996). Neural Fuzzy Systems: A Neuro-Fuzzy Synergism to
Intelligent Systems. New Jersey, Prentice Hall.
Convergencia y estabilidad de las funciones de aprendizaje


82
Linsker, R. (1986). From Basic Network Principles to Neural Architecture.
Proceedings of the National Academy of Sciences of the USA; 83, 7508-
7512.
Linsker, R. (1988). Self-Organization in a Perceptual Network. Computer; 21, 105-
117.
Llinas, R. y Churchland, P. (1996). The Mind Brain Continuum: Sensory Process.
MIT Press.
Lopez, W., Ramrez, F., Reyes, F. y Quionez, R. (1995). Comportamiento Adaptativo
y Redes Neuronales: Reforzamiento y Percepcin Temporal. I Congreso
Nacional de Neurocomputacin. Santaf de Bogot, Universidad Nacional
de Colombia.
Marr, D. (1969). A Theory of Cerebellar Cortex. Journal of Physiology; 202, 437-
470.
McCulloch, W. S. y Pitts, W. (1943). A Logical Calculus of the Ideas Immanent in
Nervous Activity. Bulletin of Mathematical Biophysics; 5, 115-133.
Minsky, M. L. y Papert, S. A. (1969). Perceptrons. Cambridge, MA: MIT Press.
Mukhopadhyay, S y Thathachar, M. A. L. (Associative Learning of Boolean
Functions. IEEE Transactions on Systems, Man and Cybernetics; 19, 5,
1008-015.
Narendra, K. S. y Annaswamy, A. M. (1989). Stable Adaptive Systems. Englewood
Cliffs. New Jersey, Prentice Hall.
Natarajan, B. K. (1991). Machine Learning: A Theoretical Approach. San Mateo,
CA: Morgan Kaufmann.
Nieto, M. (1990). Plasticidad Sinptica. En M. Nieto (Ed.) Libros de Investigacin y
Ciencia: Funcin Cerebral (pp. 37-47). Barcelona, Prensa Cientfica.
Norman, D. A. (1987). Perspectivas de la Ciencia Cognitiva. Buenos Aires, Ediciones
Paidos.
Oguztoreli, M. N. (1991). An Analysis of a Neural Network with a Fixed Memory
Span. IEEE Transactions on Systems, Man and Cybernetics; 21, 3, 683-690.
FABIO E. MARTINEZ C.

83
Opper, M. y Haussler, D. (1995). General Bounds for Predictive Errors in
Supervised Learning. Manuscrito.
Pearce, J. M. (1994). Similarity and Discrimination: A Selective Review and a
Connectionist Model. Psychological Review; 101, 4, 587-607.
Penrose, R. (1989). Emperor's New Mind: Concerning Computers, Minds, and the
Laws of Physics. New York, Oxford University Press.
Peretto, P. (1984). Collective Properties of Neural Networks: A Statistical Physics
Approach. Biological Cybernetics; 50, 51-62.
Prez, A. y Rozo, J. (1999). Neurociencias y Neurocomputacin: Estrategias para
Entender el Comportamiento. Ciencia Psicolgica; 6, 102-109.
Picard, R. W. (1997). Affective Computing. Cambridge, MIT Press.
Pineda, F. J. (1988). Dynamics and Architecture in Neural Computation. Journal of
Complexity; 4, 216-245.
Quinlan, P. (1991). Connectionism and Psychology: A Psychological Perspective on
New Connectionism Research. The University of Chicago Press.
Rangwala, S. S. y Dornfeld, D. A. (1989). Learning and Optimization of Machining
Operations Using Computing Abilities of Neural Networks. IEEE
Transactions on Systems, Man and Cybernetics; 19, 2, 299-314.
Rashevsky, N. (1938). Mathematical Biophysics. Chicago, University of Chicago
Press.
Rescorla, R. A. y Wagner, A. R. (1972). A Theory of Pavlovian Conditioning:
Variations in the Effectiveness of Reinforcement and Nonreinforcement. En
A. H. Black y W. E. Prokasky (Eds.) Classical Conditioning II: Current
Research and Theory (pp. 64-99). New York, Appleton-Century-Crofts.
Rochester, N., Holland, J.H., Habit, L.H. y Duda, W.L. (1956). Test on a cell
assembly theory of the action of the brain, using a large digital computer.
IRE Transactions on Information Theory; 2, 80-93.
Rosenblatt, F. (1958). The Perceptron: A Probabilistic Model for Information
Storage and Organization in the Brain. Psychological Review; 65, 386-408.
Convergencia y estabilidad de las funciones de aprendizaje


84
Rovithakis, G. A. (1999). Robust Neural Adaptive Stabilization of Unknown Systems
with Measurement Noise. IEEE Transactions on Systems, Man and
Cybernetics; 29, 3, 453-459.
Rozo, J. (1995). Dystal: Una Red Neuronal Biolgica. Boletin Internacional de la
Asociacin Latinoamericana para el Anlisis y Modificacin de la Conducta
(ALAMOC); 19, 2-6.
Rumelhart, D. E., Hinton, G. E. y Williams, R. J. (1986). Learning Representations by
Back-propagating error. Nature; 323, 533-536.
Rumelhart, D. E. y McClelland, eds. (1986). Parallel Distributed Processing:
Explorations in the Microstructure of Cognition; vols. 1 y 2. Cambridge,
MA: MIT Press.
Russell, S. J. y Norvig, P. (1995). Artificial Intelligence: A Modern Approach. Jew
Jersey, Prentice Hall.
Sannomiya, N. y Mayuda, K. (1984). A Mathematical Model of fish Behavior in a
Water Tank. IEEE Transactions on Systems, Man and Cybernetics; 14, 1,
157-162.
Shannon, C. E. (1948). A Mathematical Theory of Communication. Urbana,
University of Illinois Press.
Spong, M. W. (1996). Motion Control of Robot Manipulators. En W. S. Levine (Ed.)
The Control Handbook (pp. 1339-1368). IEEE Press.
Stewart, I. (1991). Juega Dios a los Dados? La Nueva Matemtica del Caos.
Barcelona, Editorial Grijalbo, Mondadori.
Sultan, F., Heck, D. y Bekkering, H. (1997). How to Link the Specificity of Cerebellar
Anatomy to Motor Learning?. En C.C. Bell, P.J. Cordo, y S. Harnad (Eds.)
Motor Learning and Synaptic Plasticity in the Cerebellum (pp. 138-138).
Cambridge, Cambridge University Press.
Sutton, R. S. (1984). Temporal Credit Assignment in Reinforcement Learning.
Amherst, University of Massachusetts.
FABIO E. MARTINEZ C.

85
Sutton, R. S., Barto, A. G. y Williams, R. J. (1991). Reinforcement Learning is
Direct Adaptive Optimal Control. Proceedings of the American Control
Conference; Boston, MA, 2143-2146.
Swinnen, S. P., Walter, C. B. y Dounskaia, N. (1997). We Know a Lot About the
Cerebellum, But Do We Know What Motor Learning Is?. En C.C. Bell, P.J.
Cordo, y S. Harnad (Eds.) Motor Learning and Synaptic Plasticity in the
Cerebellum (pp. 138-139). Cambridge, Cambridge University Press.
Takahashi, H. y Gu, H. (1998). A Tight Bound on Concept Learning. IEEE
Transactions on Neural Networks; 9, 6, 1191-1202.
Thach, W. T. (1997). On the Specific Role of the Cerebellum in Motor Learning and
Cognition: Clues From PET Activation and Lesion Studies in Man. En C.C.
Bell, P.J. Cordo, y S. Harnad (Eds.) Motor Learning and Synaptic Plasticity
in the Cerebellum (pp.73-95). Cambridge, Cambridge University Press.
Thelen, E. (1984). Learning to Walk: Ecological Demands and Phylogenetic
Constraints. En L. P. Lipsitt y C. Rovee-Coller (Eds.) Advances in Infancy
Research, vol. 3 (pp. 213-257). Ablex, Norwood-New Jersey.
Thelen, E. y Fisher, D. M. (1982). Newborn Stepping: An Explanation for a
"Disappearing Reflex". Developmental Psychology; 18, 760-775.
Thelen, E., Kelso, J. A. y Fogel, A. (1987). Self Organizing Systems and Infant Motor
Development. Developmental Review; 7, 39-65.
Thelen, E y Smith, L. B. (1994). A Dynamic Systems Approach to the Development of
Cognition and Action. Cambridge, Massachusetts, MIT Press.
Thompson, R. F. (1997). Motor Learning and Synaptic Plasticity in the Cerebellum.
En C.C. Bell, P.J. Cordo, y S. Harnad (Eds.) Motor Learning and Synaptic
Plasticity in the Cerebellum (pp. 139-140). Cambridge, Cambridge
University Press.
Turing, A. M. (1936). On Computable Numbers, with an application to the
Entscheidungs problem. Proceedings of the London Mathematical Society;
42, 230-265
Convergencia y estabilidad de las funciones de aprendizaje


86
Valiant, L. (1984). A Theory of the Learnable. Comunications of the Association for
Computing Machinery; 27, 1134-1142.
Vapnik, V. N. y Chervonenkis, A. Y. (1971). On the uniform convergence of relative
frequencies of events to their probabilities. Theory of Probability and Its
Applications; 16, 264-280.
Vapnik, V. N. (1982). Estimation of Dependences Based on Empirical Data. New
York, Springer-Verlag.
Varberg, D. y Purcell, E. (1997). Calculus. New Jersey, Prentice Hall.
Wei, G.Q. y Hirtzinger, G. (1999). Multisensory Visual Servoing by a Neural
Network. IEEE Transactions on Systems, Man and Cybernetics; Parte B:
Cybernetics; 29, 2, 276-280
Werbos, P. J. (1974). Beyond Regression: New Tools for Prediction and Analysis in
the Behavioral Sciences. Ph.D. Thesis, Harvard University, Cambridge, MA.
Wiener, N. (1948). Cybernetics: Or, Control and Communication in the Animal and
the Machine. New York, Wiley.
Yager, R. R. (1990). A Model of Participatory Learning. IEEE Transactions on
Systems, Man and Cybernetics; 20, 5, 1229-1234.
Zalzala, A.M. y Morris, A.S. (1996). Neural Networks for Robotic Control: Theory
and Applications. London, Ellis Horwood
Zeller, M., Sharma, R. y Schulten, K. (1997). Motion Planning of a Pneumatic Robot
Using a Neural Network. IEEEJournal of Control Systems; 6, 89-98.

faviolin@yahoo.com
Copyright 2000