Anda di halaman 1dari 4

Aprendizaje

Las redes neuronales tienen dos principales formas de adquirir conocimiento


basadas en sus experiencias, es decir, de aprender.
Aprendizaje supervisado
Las redes neuronales deben de ser entrenadas, ya que no estn programadas
tradicionalmente, sino debe de condicionarse cada neurona, para obtener el
resultado deseado. (Brookshear, 2012). Una tcnica usual consiste en el
backpropagation, la cual es utilizada en redes multicapa, porque poseen una
gran cantidad de entradas y salidas, con pesos diferentes. (Coppin, 2004).
Para este algoritmo se necesita que las neuronas utiliza en la funcin
sigmoidea, mencionada anteriormente. Cada iteracin involucra tanto el
suministrarle datos a la red, y luego se procede a retroalimentar,
propagndolos desde las salidas hacia las entradas, lo cual le da el nombre al
mtodo. Este proceso se repite hasta obtener de manera casi certera los
valores deseados, minimizando los errores. A pesar de eso, es bastante
ineficiente para la mayora de los problemas. (Coppin, 2004)
Pero existe una manera ms natural de producir aprendizaje, descubierta por
Donald Hebb en 1949. Esta, deca que dos neuronas humanas reforzaban la
sinapsis entre ellas cuando la activacin de esta era continua, es decir entre
ms se presentaba la conexin, ms sencillo era recordarla. Esto es fcilmente
inducible en una red, ya que nada ms se inyectan los valores claves para
obtener resultados, produciendo tendencia a esos resultados. (Hebb, 1949).
Aprendizaje NO supervisado
Las redes neuronales con aprendizaje no supervisado son aquellas que no
necesitan un asesor externo para llevar a cabo su aprendizaje. La red no recibe
confirmacin externa de si la salida generada es correcta o incorrecta. El
aprendizaje no supervisado consiste en que la red descubra por s misma
regularidades o correlaciones de los datos de entrada y as poder llegar a
generar la salida esperada (Pelaz, 2012).

El fundamento de Hebb tambin puede ser utilizado en las redes no


supervisadas, ya que al encontrar que cierta conexin existe de manera
habitual, va a tender ms hacia esta. (Matich, 2001).

Teuvo Kohonen, cientfico finlands, en la dcada de los 80s inicio con el


desarrollo de una forma de auto-ordenar informacin, lo cual result en los
Mapas de Auto Organizacin (SOM por sus siglas en ingls) o Mapas de
Kohonen.(n.d, s.f) El propsito de un mapa Kohonen es agrupar los datos de
entrada en una cantidad determinada de grupos. Para lograr esto, utiliza el
algoritmo winner-take-it-all, donde las neuronas de mayor activacin son las

ganadoras. Un mapa de Kohonen no trae grupos ya predeterminados, el


mismo determina la segmentacin ms til. De esta manera, un mapa de
Kohonen es particularmente til para agrupar datos en donde los grupos no son
conocidos de antemano (Coppin, 2004).

Un mapa de Kohonen est formado por dos capas: la capa de entradas y


la capa de grupos.

El mtodo utilizado para formar un mapa de Kohonen es el sigue:


Inicialmente, todos los pesos se ajustan en pequeos valores aleatorios.
La tasa de aprendizaje, tambin se establece, por lo general a un valor
positivo pequeo. Un vector de entrada es presentado a la capa de
entradas. Esta capa se alimenta de los datos de entrada de la capa de
grupos. La neurona en la capa de grupos que ms estrechamente
coincida con los datos de entrada es declarada ganadora. Esta neurona
proporciona la clasificacin de salida del mapa y tambin actualiza sus
pesos.
Para determinar qu neurona gana, sus pesos se tratan como un vector, y este
vector se compara con el vector de entrada. La neurona cuyo peso vector est
ms cerca del vector de entrada es el ganador (Coppin, 2004).

Aplicaciones
Se pueden describir tres tipos de aplicaciones para las redes neuronales: las
aplicaciones candidatas, las aplicaciones en desarrollo y las aplicaciones
demostradas. Las primeras consisten en problemas que pueden resolverse con
esta tecnologa, pero que an no han sido probados. Las aplicaciones en
desarrollo son las que estn pruebas, y ya se tiene un prototipo de red que
pueda aplicrsele al problema. Las aplicaciones ya demostradas son en las que
ya estn siendo utilizadas, incluso comercialmente, para resolver diferentes
tipos de problemas (Basogain, 2008).
Por ejemplo, el modelo de Widrow y Hoff de 1960, ADELINE, es utilizado para el
diseo y la creacin de filtros de ruido, para eliminarlo en diferentes tipos de

seales portadoras de informacin, y de mdems. La Red de Backpropgation es


utilizada en el proyecto de la mquina de escribir neural fontica (Sotolongo y
Guzmn, 2001).
El modelo de los mapas auto-organizados ha sido aplicado en software tales
como el Viscovery SOMine (C). Este software, lo define su pgina web, es una
aplicacin de escritorio para la minera de datos explorativa. Es de los ms
potentes del mercado debido a la gran cantidad de variables que puede
manejar, y la cantidad de informacin que puede representar (VAUTRON
RECHENZENTRUM AG, 2013).
Las redes neuronales y el software de aprendizaje han alcanzado niveles tan
avanzados de aplicacin, que, segn Jeff Dean y Andrew Ng de Google, las
usamos docenas de veces al da sin darnos cuenta. La mquina de escribir
fontica es usado en software de reconocimiento de voz; incluso los filtros
modernos de spam utilizan redes neuronales (Dean & Ng, 2012).Una de las
aplicaciones ms modernas e impresionantes de las redes neuronales es el
Google Brain. Este es un experimento a larga escala de Google, que usa el
poder de 16 000 procesadores, para lograr una red neuronal mucho ms
eficiente y con infinitas utilidades (Deep Learning, 2012). Pretende utilizar
informacin sin identificar (unlabeled data) para lograr el aprendizaje. Con esta
red,
se

Google Brain ha sido capaz de reconocer la forma de caras


humanas y de gatos, luego de miles de datos analizados.
utilizaran imgenes diferentes y al azar, sin etiquetar, y la red por s sola
empezara a reconocer algunos objetos dentro de imgenes e incluso videos.
1

Pelaz Chvez, N. (2012). Aprendizaje no supervisado y el algoritmo wake-sleep


en redes neuronales. HUAJUAPAN DE LEON, OAXACA.: UNIVERSIDAD
TECNOLOGICA
DE
LA
MIXTECA.
Retrieved
from
http://jupiter.utm.mx/~tesis_dig/11612.pdf

Brookshear, J., & Smith, D. (2012). Artificial Intelligence. In Computer science: An


overview(11th ed.). Boston: Addison-Wesley.

Coppin, B. (2004). Artificial intelillence iluminated. (1 ed., Vol. 1, p. 316). Canada:


Jones and Bartlett Publishers.
Hebb, D. O. (1949). The organization of behavior: a neuropsychological theory.
New York: Wiley and Sons.
Matich, D. J. (2001). Redes neuronales: Conceptos bsicos y aplicaciones..
Rosario : Universidad Tecnolgica Nacional. DOI

Teuvo Kohonen. (n.d.). Retrieved November 23, 2014, from http://users.ics.aalto.fi/teuvo/


9

Basogain Olabe, X. (2008). Redes neuronales artificiales y sus aplicaciones.


Bilbao, Espaa: Universidad del Pas Vasco.
Sotolongo, G., & Guzmn, M. V. (2001). Aplicaciones de las redes neuronales: el
caso de la biliometra. Informally published manuscript, Ciencias de la
Informacin, UNAM, Distrito Federal, Mxico.
VAUTRON RECHENZENTRUM AG. (2013). Viscovery somine 6. Retrieved from
http://www.viscovery.net/somine/
Dean, J., & Ng, A. (2012, June 26). [Web log message]. Retrieved from
http://googleblog.blogspot.com/2012/06/using-large-scale-brain-simulationsfor.html
Deep Learning. (2012, December 13). Googles large scale deep learning
experiments. Retrieved from http://deeplearning.net/tag/google-brain/

Anda mungkin juga menyukai