Trabajo Extra
Nombre:
Introduccin
Las redes neuronales son ms que otra forma de emular ciertas caractersticas propias de los humanos, como la capacidad de memorizar y de asociar hechos. Si se examinan con atencin aquellos problemas que no pueden expresarse a travs de un algoritmo, se observar que todos ellos tienen una caracterstica en comn: la experiencia. El hombre es capaz de resolver estas situaciones acudiendo a la experiencia acumulada. As, parece claro que una forma de aproximarse al problema consista en la construccin de sistemas que sean capaces de reproducir esta caracterstica humana. En definitiva, las redes neuronales no son ms que un modelo artificial y simplificado del cerebro humano, que es el ejemplo ms perfecto del que disponemos para un sistema que es capaz de adquirir conocimiento a travs de la experiencia. Una red neuronal es un nuevo sistema para el tratamiento de la informacin, cuya unidad bsica de procesamiento est inspirada en la clula fundamental del sistema nervioso humano: la neurona. Todos los procesos del cuerpo humano se relacionan en alguna u otra forma con la (in)actividad de estas neuronas. Las mismas son un componente relativamente simple del ser humano, pero cuando millares de ellas se conectan en forma conjunta se hacen muy poderosas. Lo que bsicamente ocurre en una neurona biolgica es lo siguiente: la neurona es estimulada o excitada a travs de sus entradas (inputs) y cuando se alcanza un cierto umbral, la neurona se dispara o activa, pasando una seal hacia el axon. Posteriores investigaciones condujeron al descubrimiento de que estos procesos son el resultado de eventos electroqumicos. Como ya se sabe, el pensamiento tiene lugar en el cerebro, que consta de billones de neuronas interconectadas. As, el secreto de la inteligencia -sin importar como se definase sita dentro de estas neuronas interconectadas y de su interaccin. Tambin, es bien conocido que los humanos son capaces de aprender. Aprendizaje significa que aquellos problemas que inicialmente no pueden resolverse, pueden ser resueltos despus de obtener ms informacin acerca del problema. Por lo tanto, las Redes Neuronales.. Consisten de unidades de procesamiento que intercambian datos o informacin. Se utilizan para reconocer patrones, incluyendo imgenes, manuscritos y secuencias de tiempo (por ejemplo: tendencias financieras). Tienen capacidad de aprender y mejorar su funcionamiento.
Gonzlez Rodrguez Jacaranda. Una primera clasificacin de los modelos de redes neuronales podra ser, atendiendo a su similitud con la realidad biolgica: 1) El modelo de tipo biolgico. Este comprende las redes que tratan de simular los sistemas neuronales biolgicos, as como las funciones auditivas o algunas funciones bsicas de la visin. 2) El modelo dirigido a aplicacin. Este modelo no tiene por qu guardar similitud con los sistemas biolgicos. Su arquitectura est fuertemente ligada a las necesidades de las aplicaciones para la que es diseada.
Gonzlez Rodrguez Jacaranda. para resolver el problema de la funcin OR-exclusiva y, en general, era incapaz de clasificar clases no separables linealmente. 1959 - Frank Rosenblatt: Principios de Neurodinmica. En este libro confirm que, bajo ciertas condiciones, el aprendizaje del Perceptron converga hacia un estado finito (Teorema de Convergencia del Perceptron). 1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline (ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las lneas telefnicas) que se ha utilizado comercialmente durante varias dcadas. 1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones tcnicas (memoria asociativa). 1969 - Marvin Minsky/Seymour Papert. En este ao casi se produjo la muerte abrupta de las Redes Neuronales; ya que Minsky y Papert probaron (matemticamente) que el Perceptrons no era capaz de resolver problemas relativamente fciles, tales como el aprendizaje de una funcin no-lineal. Esto demostr que el Perceptron era muy dbil, dado que las funciones no-lineales son extensamente empleadas en computacin y en los problemas del mundo real. 1974 - Paul Werbos. Desarroll la idea bsica del algoritmo de aprendizaje de propagacin hacia atrs (backpropagation); cuyo significado qued definitivamente aclarado en 1985. 1977 - Stephen Grossberg: Teora de Resonancia Adaptada (TRA). La Teora de Resonancia Adaptada es una arquitectura de red que se diferencia de todas las dems previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo. 1985 - John Hopfield. Provoc el renacimiento de las redes neuronales con su libro: Computacin neuronal de decisiones en problemas de optimizacin. 1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de propagacin hacia atrs (backpropagation). A partir de 1986, el panorama fue alentador con respecto a las investigaciones y el desarrollo de las redes neuronales. En la actualidad, son numerosos los trabajos que se realizan y publican cada ao, las aplicaciones nuevas que surgen (sobre todo en el rea de control) y las empresas que lanzan al mercado productos nuevos, tanto hardware como software (sobre todo para simulacin).
Asimismo tambin se define como un sistema de computacin compuesto por un gran nmero de elementos simples, elementos de procesos muy interconectados, los cuales procesan informacin por medio de su estado dinmico como respuesta a entradas externas.
Gonzlez Rodrguez Jacaranda. valores binarios por periodos de tiempo indefinido, lo cual no es el caso. Si el principio fuera sncrono, se necesitara un reloj global o maestro con el cual los pulsos estn sincronizados. ste tampoco es el caso. Las neuronas no pueden ser circuitos de umbral lgico, porque hay miles de entradas variables en la mayora de las neuronas y el umbral es variable con el tiempo, siendo afectado por la estimulacin, atenuacin, etc. La precisin y estabilidad de tales circuitos no es suficiente para definir ninguna funcin booleana. Los procesos colectivos que son importantes en computacin neuronal no pueden implementarse por computacin digital. Por todo ello, el cerebro debe ser uncomputador analgico. Ni las neuronas ni las sinapsis son elementos de memoria biestable. Todos los hechos fisiolgicos hablan a favor de las acciones de las neuronas como integradores analgicos, y la eficiencia de la sinapsis cambia de forma gradual, lo cual no es caracterstico de sistemas biestables. Los circuitos del cerebro no implementan computacin recursiva y por lo tanto no son algortmicos. Debido a los problemas de estabilidad, los circuitos neuronales no son suficientemente estables para definiciones recursivas de funciones como en computacin digital. Un algoritmo, por definicin, define una funcin recursiva.
La misma est constituida por neuronas interconectadas y arregladas en tres capas (esto ltimo puede variar). Los datos ingresan por medio de la capa de entrada, pasan a
Gonzlez Rodrguez Jacaranda. travs de la capa oculta y salen por la capa de salida. Cabe mencionar que la capa oculta puede estar constituida por varias capas. Antes de comenzar el estudio sobre las redes neuronales, se debe aprender algo sobre las neuronas y de cmo ellas son utilizadas por una red neuronal. En la Figura 4.2 se compara una neurona biolgica con una neurona artificial. En la misma se pueden observar las similitudes entre ambas (tienen entradas, utilizan pesos y generan salidas.
Mientras una neurona es muy pequea en s misma, cuando se combinan cientos, miles o millones de ellas pueden resolver problemas muy complejos. Por ejemplo el cerebro humano se compone de billones de tales neuronas.
En la Figura 4.1 se puede ver el ejemplo de la estructura de una posible red multicapa, en la que cada nodo o neurona nicamente est conectada con neuronas de un nivel superior. Notar que hay ms conexiones que neuronas en s; en este sentido, se dice que una red es totalmente conectada si todas las salidas desde un nivel llegan a todos y cada uno de los nodos del nivel siguiente.
Redes monocapa.
En las redes monocapa, se establecen conexiones entre las neuronas que pertenecen a la nica capa que constituye la red. Las redes monocapas se utilizan generalmente en tareas relacionadas con lo que se conoce como autoasociacin (regenerar informacin de entrada que se presenta a la red de forma incompleta o distorsionada).
Redes multicapa.
Las redes multicapas son aquellas que disponen de un conjunto de neuronas agrupadas en varios (2, 3, etc.) niveles o capas. En estos casos, una forma para distinguir la capa a la que pertenece una neurona, consistira en fijarse en el origen de las seales que recibe a la entrada y el destino de la seal de salida. Normalmente, todas las neuronas de una capa reciben seales de entrada desde otra capa anterior (la cual est ms cerca a la entrada de la red), y envan seales
de salida a una capa posterior (que est ms cerca a la salida de la red). A estas conexiones se las denomina conexiones hacia adelante o feedforward. Sin embargo, en un gran nmero de estas redes tambin existe la posibilidad de conectar la salida de las neuronas de capas posteriores a la entrada de capas anteriores; a estas conexiones se las denomina conexiones hacia atrs o feedback. Estas dos posibilidades permiten distinguir entre dos tipos de redes con mltiples capas: las redes con conexiones hacia adelante o redes feedforward, y las redes que disponen de conexiones tanto hacia adelante como hacia atrs o redes feedforward/feedback.
activacin al modificarse el valor de los pesos. Esto se llama sensibilidad de la funcin activacin, de acuerdo al cambio en los pesos.
Mecanismos de aprendizaje.
Se ha visto que los datos de entrada se procesan a travs de la red neuronal con el propsito de lograr una salida. Tambin se dijo que las redes neuronales extraen generalizaciones desde un conjunto determinado de ejemplos anteriores de tales problemas de decisin. Una red neuronal debe aprender a calcular la salida correcta para cada constelacin (arreglo o vector) de entrada en el conjunto de ejemplos. Este proceso de aprendizaje se denomina: proceso de entrenamiento o acondicionamiento. El conjunto de datos (o conjunto de ejemplos) sobre el cual este proceso se basa es, por ende, llamado: conjunto de datos de entrenamiento. Si la topologa de la red y las diferentes funciones de cada neurona (entrada, activacin y salida) no pueden cambiar durante el aprendizaje, mientras que los pesos sobre cada una de las conexiones si pueden hacerlo; el aprendizaje de una red neuronal significa: adaptacin de los pesos. En otras palabras el aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta a una informacin de entrada. Los cambios que se producen durante el mismo se reducen a la destruccin, modificacin y creacin de conexiones entre las neuronas. En los sistemas biolgicos existe una continua destruccin y creacin de conexiones entre las neuronas. En los modelos de redes neuronales artificiales, la creacin de una nueva conexin implica que el peso de la misma pasa a tener un valor distinto de cero. De la misma manera, una conexin se destruye cuando su peso pasa a ser cero. Durante el proceso de aprendizaje, los pesos de las conexiones de la red sufren modificaciones, por lo tanto, se puede afirmar que este proceso ha terminado (la red ha aprendido) cuando los valores de los pesos permanecen estables (dwij/dt = 0). Un aspecto importante respecto al aprendizaje de las redes neuronales es el conocer cmo se modifican los valores de los pesos, es decir, cules son los criterios que se siguen para cambiar el valor asignado a las conexiones cuando se pretende que la red aprenda una nueva informacin. Hay dos mtodos de aprendizaje importantes que pueden distinguirse: a- Aprendizaje supervisado. b- Aprendizaje no supervisado.
Gonzlez Rodrguez Jacaranda. Otro criterio que se puede utilizar para diferenciar las reglas de aprendizaje se basa en considerar si la red puede aprender durante su funcionamiento habitual o si el aprendizaje supone la desconexin de la red, es decir, su inhabilitacin hasta que el proceso termine. En el primer caso, se tratara de un aprendizaje on line, mientras que el segundo es lo que se conoce como off line. Cuando el aprendizaje es off line, se distingue entre una fase de aprendizaje o entrenamiento y una fase de operacin o funcionamiento, existiendo un conjunto de datos de entrenamiento y un conjunto de datos de test o prueba, que sern utilizados en la correspondiente fase. Adems, los pesos de las conexiones permanecen fijos despus que termina la etapa de entrenamiento de la red. Debido precisamente a su carcter esttico, estos sistemas no presentan problemas de estabilidad en su funcionamiento. Una generalizacin de la frmula o regla para decir los cambios en los pesos es la siguiente:
Donde t hace referencia a la etapa de aprendizaje, wij(t+1) al peso nuevo y wij(t) al peso viejo.
10
Evaluacin de probabilidad de formaciones geolgicas y petrolferas. Identificacin de candidatos para posiciones especficas. Explotacin de bases de datos. Optimizacin de plazas y horarios en lneas de vuelo. Optimizacin del flujo del trnsito controlando convenientemente la temporizacin de los semforos. Reconocimiento de caracteres escritos. Modelado de sistemas para automatizacin y control. Medio ambiente:
Analizar tendencias y patrones. Previsin del tiempo. Finanzas: Previsin de la evolucin de los precios. Valoracin del riesgo de los crditos. Identificacin de falsificaciones. Interpretacin de firmas. Manufacturacin:
Robots automatizados y sistemas de control (visin artificial y sensores de presin, temperatura, gas, etc.). Control de produccin en lneas de procesos. Inspeccin de la calidad. Medicina:
Analizadores del habla para ayudar en la audicin de sordos profundos. Diagnstico y tratamiento a partir de sntomas y/o de datos analticos (electrocardiograma, encefalogramas, anlisis sanguneo, etc.). Monitorizacin en cirugas. Prediccin de reacciones adversas en los medicamentos. Entendimiento de la causa de los ataques cardacos. Militares:
Clasificacin de las seales de radar. Creacin de armas inteligentes. Optimizacin del uso de recursos escasos. Reconocimiento y seguimiento en el tiro al blanco.
11
Gonzlez Rodrguez Jacaranda. La mayora de estas aplicaciones consisten en realizar un reconocimiento de patrones, como ser: buscar un patrn en una serie de ejemplos, clasificar patrones, completar una seal a partir de valores parciales o reconstruir el patrn correcto partiendo de uno distorsionado. Sin embargo, est creciendo el uso de redes neuronales en distintos tipos de sistemas de control. Desde el punto de vista de los casos de aplicacin, la ventaja de las redes neuronales reside en el procesado paralelo, adaptativo y no lineal. El dominio de aplicacin de las redes neuronales tambin se lo puede clasificar de la siguiente forma: asociacin y clasificacin, regeneracin de patrones, regresin y generalizacin, y optimizacin.
12