Anda di halaman 1dari 37

Año Del Buen Servicio Al Ciudadano”

Universidad Científica del Perú

FACULTAD DE CIENCIAS E INGENIERIA

Escuela profesional de ingeniería de sistemas de información

TEMA:
REDES NEURONALES

PROFESOR: Ing. ISRAEL DANIEL LOZANO DEL CASTILLO

CURSO: BUSSINES INTELIGENCE

ESTUDIANTES:

GUEVARA RAFAEL
ERICK
JOEL
YAICATE SAQUIRAY RONALD

FECHA: 23 – 08 – 17

San Juan Bautista – Iquitos


Perú

1
Índice:

1. INTRODUCCIÓN A LAS REDES NEURONALES ............................................................................. 4


2. RESEÑA HISTORICA ............................................................................................................................ 5
2.1. Historia de las redes neuronales ...................................................................................................... 5
3. REDES NEURONALES ......................................................................................................................... 8
3.1. Definición de redes neuronales ........................................................................................................ 8
3.2. Ventajas de las redes neuronales .................................................................................................... 8
3.2.1. Aprendizaje adaptativo .................................................................................................................. 9
3.2.2. Auto-organización .......................................................................................................................... 9
3.2.3. Tolerancia a fallos ........................................................................................................................ 10
3.2.4. Operación en tiempo real. ........................................................................................................... 11
3.2.5. Fácil inserción dentro de la tecnología existente. .................................................................... 11
3.3. Desventajas de las redes neuronales ............................................................................................ 11
4. Características de las redes neuronales ........................................................................................... 12
4.1. Topología ........................................................................................................................................... 13
4.1.1. Redes monocapa: ........................................................................................................................ 13
4.1.2. Redes multicapa: .......................................................................................................................... 13
4.2. Mecanismos de aprendizaje ........................................................................................................... 13
4.3. Redes con aprendizaje supervisado .............................................................................................. 14
4.3.1. Aprendizaje por corrección de error: ......................................................................................... 14
4.3.2. Aprendizaje por refuerzo: ............................................................................................................ 15
4.3.3. Aprendizaje estocástico: ............................................................................................................. 15
4.4. Redes con aprendizaje no supervisado ........................................................................................ 15
4.4.1. Aprendizaje hebbiano: ................................................................................................................. 16
4.4.2. Aprendizaje competitivo y cooperativo: ..................................................................................... 17
4.5. Tipo de asociación entre las informaciones de entrada y salida ............................................... 17
4.5.1. Redes heteroasociativas: ............................................................................................................ 17
4.5.2. Redes autoasociativas: ............................................................................................................... 18
4.6. Representación de la información de entrada y salida ............................................................... 18
4.6.1. Redes continúas: .......................................................................................................................... 18
4.6.2. Redes discretas: ........................................................................................................................... 18
4.6.3. Redes híbridas: ............................................................................................................................. 18
5. Elementos básicos que componen una red neuronal. .................................................................... 19
5.1.1. Función de entrada (input function). .......................................................................................... 20
5.1.2. Función de activación (activation function). ............................................................................. 21
5.1.3. Función de salida (output function). .......................................................................................... 21
5.2. Niveles o capas de una red neuronal. ........................................................................................... 22
6. Tipos de neuronas artificiales.............................................................................................................. 22
7. Técnicas de decisión. ........................................................................................................................... 23
8. Aplicaciones de las redes neuronales. .............................................................................................. 24
9. Aplicaciones ........................................................................................................................................... 27
9.1. Aplicaciones de la vida real ............................................................................................................. 27
9.2. Las redes neuronales y la neurociencia ........................................................................................ 28
9.3. Tipos de modelos.............................................................................................................................. 29
9.4. Las redes con memoria ................................................................................................................... 29
9.5. Software de red neuronal ................................................................................................................ 30

10. Potencia de calculo .......................................................................................................................... 31


10.1. Capacidad...................................................................................................................................... 31
10.2. Convergencia ................................................................................................................................ 31
10.3. Generalización y estadísticas ..................................................................................................... 31
11. Circuito neuronal ............................................................................................................................... 32
2
12. Herramientas de software ............................................................................................................... 33
14. CASO DE EXITOS ........................................................................................................................... 34
15. Conclusiones ..................................................................................................................................... 36
16. Webgrafía........................................................................................................................................... 37

3
1. INTRODUCCIÓN A LAS REDES NEURONALES

El cerebro humano es el sistema de cálculo más complejo que conoce el hombre,


el ordenador y el hombre realizan bien diferentes clases de tareas; así la operación
de reconocer el rostro de una persona resulta una tarea relativamente sencilla para
el hombre y difícil para el ordenador, mientras que la contabilidad de una empresa
es tarea costosa para un experto contable y una sencilla rutina para un ordenador
básico.
La capacidad del cerebro humano de pensar, recordar y resolver problemas ha
inspirado a muchos científicos intentar o procurar modelar en el ordenador el
funcionamiento del cerebro humano. Los profesionales de diferentes campos como
la ingeniería, filosofía, fisiología y psicología han unido sus esfuerzos debido al
potencial que ofrece esta tecnología y están encontrando diferentes aplicaciones en
sus respectivas profesiones.
Un grupo de investigadores ha perseguido la creación de un modelo en el ordenador
que iguale o adopte las distintas funciones básicas del cerebro. El resultado ha sido
una nueva tecnología llamada Computación Neuronal o también Redes Neuronales
Artificiales.

4
2. RESEÑA HISTORICA

2.1. Historia de las redes neuronales


Conseguir diseñar y construir máquinas capaces de realizar procesos con cierta
inteligencia ha sido uno de los principales objetivos de los científicos a lo largo de
la historia. De los intentos realizados en este sentido se han llegado a definir las
líneas fundamentales para la obtención de máquinas inteligentes: En un principio
los esfuerzos estuvieron dirigidos a la obtención de autómatas, en el sentido de
máquinas que realizaran, con más o menos éxito, alguna función típica de los seres
humanos. Hoy en día se continúa estudiando en ésta misma
línea, con resultados sorprendentes, existen maneras de realizar procesos similares
a los inteligentes y que podemos encuadrar dentro de la llamada Inteligencia
Artificial (IA). La otra línea de la investigación ha tratado de aplicar principios físicos
que rigen en la naturaleza para obtener máquinas que realicen trabajos pesados en
nuestro lugar. De igual manera se puede pensar respecto a la forma y capacidad de
razonamiento humano; se puede intentar obtener máquinas con esta capacidad
basadas en el mismo principio de funcionamiento.
No se trata de construir máquinas que compitan con los seres humanos, sino que
realicen ciertas tareas de rango intelectual con que ayudarle, principio básico de la
Inteligencia Artificial.
1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de
ver el mundo de la computación. Sin embargo, los primeros teóricos que concibieron
los fundamentos de la computación neuronal fueron Warren McCulloch, un
neurofisiólogo, y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría
acerca de la forma de trabajar de las neuronas (Un Cálculo Lógico de la Inminente
Idea de la Actividad Nerviosa - Boletín de Matemática Biofísica 5: 115-133). Ellos
modelaron una red neuronal simple mediante circuitos eléctricos.
1949 - Donald Hebb. Fue el primero en explicar los procesos del aprendizaje
(que es el elemento básico de la inteligencia humana) desde un punto de vista
psicológico, desarrollando una regla de como el aprendizaje ocurría. Aun hoy, este
es el fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse
en una red neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios
en una neurona eran activados. También intentó encontrar semejanzas entre el
aprendizaje y la actividad nerviosa. Los trabajos de Hebb formaron las bases de la
Teoría de las Redes Neuronales.
1950 - Karl Lashley. En sus series de ensayos, encontró que la información no
5
era almacenada en forma centralizada en el cerebro, sino que era distribuida encima
de él.
1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para
indicar el nacimiento de la inteligencia artificial.
1957 - Frank Rosenblatt. Comenzó el desarrollo del Perceptron. Esta es la red
neuronal más antigua; utilizándose hoy en día para aplicación como identificador de
patrones. Este modelo era capaz de generalizar, es decir, después de haber
aprendido una serie de patrones podía reconocer otros similares, aunque no se le
hubiesen presentado en el entrenamiento. Sin embargo, tenía una serie de
limitaciones, por ejemplo, su incapacidad para resolver el problema de la función
OR-exclusiva y, en general, era incapaz de clasificar clases no separables
linealmente.
1959 - Frank Rosenblatt: Principios de Neurodinámica. En este libro confirmó
que, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un
estado finito (Teorema de Convergencia del Perceptron).
1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline
(ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un
problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que
se ha utilizado comercialmente durante varias décadas.
1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones
técnicas (memoria asociativa).
1969 - Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerte
abrupta” de las Redes Neuronales; ya que Minsky y Papert probaron
(matemáticamente) que el Perceptrons no era capaz de resolver problemas
relativamente fáciles, tales como el aprendizaje de una función no-lineal. Esto
demostró que el Perceptron era muy débil, dado que las funciones no-lineales son
extensamente empleadas en computación y en los problemas del mundo real.
1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje de
propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente
aclarado en 1985.
1977 - Stephen Grossberg: Teoría de Resonancia Adaptada (TRA). La Teoría de
Resonancia Adaptada es una arquitectura de red que se diferencia de todas las
demás previamente inventadas. La misma simula otras habilidades del cerebro:
memoria a largo y corto plazo.
1985 - John Hopfield. Provocó el renacimiento de las redes neuronales con su
libro: “Computación neuronal de decisiones en problemas de optimización.”
1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje
6
de propagación hacia atrás (backpropagation).

A partir de 1986, el panorama fue alentador con respecto a las investigaciones y el


desarrollo de las redes neuronales. En la actualidad, son numerosos los trabajos
que se realizan y publican cada año, las aplicaciones nuevas que surgen (sobre
todo en el área de control) y las empresas que lanzan al mercado productos nuevos,
tanto hardware como software (sobre todo para
simulación).

7
3. REDES NEURONALES

3.1. Definición de redes neuronales


Las redes neuronales (también conocidas como sistemas conexionistas) son
un modelo computacional basado en un gran conjunto de unidades
neuronales simples (neuronas artificiales), de forma aproximadamente
análoga, el comportamiento observado en los axones de las neuronas en los
cerebros biológicos.

Nota: “computación neuronal”, o “redes neuronales artificiales”, es una


nueva tecnología que pretende desarrollar sistemas artificiales que imiten la
composición de las redes neuronales del cerebro humano, capaces de llevar
a cabo sus funciones más básicas.

3.2. Ventajas de las redes neuronales

Debido a su constitución y a sus fundamentos, las redes neuronales


artificiales presentan un gran número de características semejantes a las del
cerebro. Por ejemplo, son capaces de aprender de la experiencia, de
generalizar de casos anteriores a nuevos casos, de abstraer características
esenciales a partir de entradas que representan información irrelevante, etc.
Esto hace que ofrezcan numerosas ventajas y que este tipo de tecnología
se esté aplicando en múltiples áreas. Entre las ventajas se incluyen:

 Aprendizaje Adaptativo. Capacidad de aprender a realizar tareas basadas


en un entrenamiento o en una experiencia inicial.
 Auto-organización. Una red neuronal puede crear su propia organización o
representación de la información que recibe mediante una etapa de
aprendizaje.
 Tolerancia a fallos. La destrucción parcial de una red conduce a una
degradación de su estructura; sin embargo, algunas capacidades de la red
se pueden retener, incluso sufriendo un gran daño.
 Operación en tiempo real. Los cómputos neuronales pueden ser realizados
en paralelo; para esto se diseñan y fabrican máquinas con hardware especial
para obtener esta capacidad.

8
 Fácil inserción dentro de la tecnología existente. Se pueden obtener chips
especializados para redes neuronales que mejoran su capacidad en ciertas
tareas. Ello facilitará la integración modular en los sistemas existentes.

3.2.1. Aprendizaje adaptativo


La capacidad de aprendizaje adaptativo es una de las características más
atractivas de redes neuronales. Esto es, aprenden a llevar a cabo ciertas
tareas mediante un entrenamiento con ejemplos ilustrativos.
Como las redes neuronales pueden aprender a diferenciar patrones
mediante ejemplos y entrenamientos, no es necesario elaborar modelos a
priori ni necesidad de especificar funciones de distribución de probabilidad.
Las redes neuronales son sistemas dinámicos autoadaptativos. Son
adaptables debido a la capacidad de autoajuste de los elementos procesales
(neuronas) que componen el sistema. Son dinámicos, pues son capaces de
estar constantemente cambiando para adaptarse a las nuevas condiciones.
En el proceso de aprendizaje, los enlaces ponderados de las neuronas se
ajustan de manera que se obtengan ciertos resultados específicos. Una red
neuronal no necesita un algoritmo para resolver un problema, ya que ella
puede generar su propia distribución de pesos en los enlaces mediante el
aprendizaje. También existen redes que continúan aprendiendo a lo largo de
su vida, después de completado su período de
entrenamiento. La función del diseñador es únicamente la obtención de la
arquitectura apropiada. No es problema del diseñador el cómo la red
aprenderá a discriminar. Sin embargo, sí es necesario que desarrolle un
buen algoritmo de aprendizaje que le proporcione a la red la capacidad de
discriminar, mediante un entrenamiento con patrones.

3.2.2. Auto-organización
Las redes neuronales emplean su capacidad de aprendizaje adaptativo
para autoorganizar la información que reciben durante el aprendizaje y/o
la operación.
Mientras que el aprendizaje es la modificación de cada elemento
procesal, la autoorganización consiste en la modificación de la red
neuronal completa para llevar a cabo un objetivo específico.
Cuando las redes neuronales se usan para reconocer ciertas clases de
patrones, ellas autoorganizan la información usada. Por ejemplo, la red
9
llamada backpropagation, creará su propia representación
característica, mediante la cual puede reconocer ciertos patrones.
Esta autoorganización provoca la generalización: facultad de las redes
neuronales de responder apropiadamente cuando se les presentan
datos o situaciones a las que no había sido expuesta anteriormente. El
sistema puede generalizar la entrada para obtener una respuesta. Esta
característica es muy importante cuando se tiene que solucionar
problemas en los cuales la información de entrada no es muy clara;
además permite que el sistema dé una solución, incluso cuando la
información de entrada está especificada de forma incompleta.

3.2.3. Tolerancia a fallos


Las redes neuronales fueron los primeros métodos computacionales con
la capacidad inherente de tolerancia a fallos. Comparados con los
sistemas computacionales tradicionales, los cuales pierden su
funcionalidad cuando sufren un pequeño error de memoria, en las redes
neuronales, si se produce un fallo en un número no muy grande de
neuronas y aunque el comportamiento del sistema se ve influenciado, no
sufre una caída repentina.
Hay dos aspectos distintos respecto a la tolerancia a fallos:

a. Las redes pueden aprender a reconocer patrones con ruido,


distorsionados o incompletos. Esta es una tolerancia a fallos respecto a
los datos.
b. Las redes pueden seguir realizando su función (con cierta degradación)
aunque se destruya parte de la red.
La razón por la que las redes neuronales son tolerantes a los fallos es
que tienen su información distribuida en las conexiones entre neuronas,
existiendo cierto grado de redundancia en este tipo de almacenamiento.
La mayoría de los ordenadores algorítmicos y sistemas de recuperación
de datos almacenan cada pieza de información en un espacio único,
localizado y direccionable. En cambio, las redes neuronales almacenan
información no localizada. Por lo tanto, la mayoría de las interconexiones
entre los nodos de la red tendrán sus valores en función de los estímulos
recibidos, y se
generará un patrón de salida que represente la información almacenada.

10
3.2.4. Operación en tiempo real.
Una de las mayores prioridades, casi en la totalidad de las áreas de
aplicación, es la necesidad de realizar procesos con datos de forma muy
rápida. Las redes neuronales se adaptan bien a esto debido a su
implementación paralela. Para que la mayoría de las redes puedan operar
en un entorno de tiempo real, la necesidad de cambio en los pesos
de las conexiones o entrenamiento es mínimo.

3.2.5. Fácil inserción dentro de la tecnología existente.


Una red individual puede ser entrenada para desarrollar una única y bien
definida tarea (tareas complejas, que hagan múltiples selecciones de
patrones, requerirán sistemas de redes interconectadas). Con las
herramientas computacionales existentes (no del tipo PC), una red puede
ser rápidamente entrenada, comprobada, verificada y trasladada a una
implementación hardware de bajo coste. Por lo tanto, no se presentan
dificultades para la inserción de redes neuronales en aplicaciones
específicas, por ejemplo, de control, dentro de los sistemas existentes. De
esta manera, las redes neuronales se pueden utilizar para mejorar sistemas
en forma incremental y cada paso puede ser evaluado antes de
acometer un desarrollo más amplio.

3.3. Desventajas de las redes neuronales


 Complejidad de aprendizaje para grandes tareas, cuantas más cosas
se necesiten que aprenda una red, más complicado será enseñarle.
 Tiempo de aprendizaje elevado. Esto depende de dos factores:
primero si se incrementa la cantidad de patrones a identificar o
clasificar y segundo si se requiere mayor flexibilidad o capacidad de
adaptación de la red neuronal para reconocer patrones que sean
sumamente parecidos, se deberá invertir más tiempo en lograr que
la red converja a valores de pesos que representen lo que se quiera
enseñar.
 No permite interpretar lo que se ha aprendido, la red por si sola
proporciona una salida, un número, que no puede ser interpretado
por ella misma, sino que se requiere de la intervención del
programador y de la aplicación en si para encontrarle un significado
a la salida proporcionada.

11
 Elevada cantidad de datos para el entrenamiento, cuanto más
flexible se requiera que sea la red neuronal, más información tendrá
que enseñarle para que realice de forma adecuada la identificación.
 Otros problemas con las redes neuronales son la falta de reglas
definitorias que ayuden a realizar una red para un problema dado.

4. Características de las redes neuronales

Las Redes Neuronales Artificiales, ANN (Artificial Neural Networks) están inspiradas
en las redes neuronales biológicas del cerebro humano. Están constituidas por
elementos que se comportan de forma similar a la neurona biológica en sus
funciones más comunes. Estos elementos están organizados de una forma parecida
a la que presenta el cerebro humano.
Las ANN al margen de "parecerse" al cerebro presentan una serie de características
propias del cerebro. Por ejemplo, las ANN aprenden de la experiencia, generalizan
de ejemplos previos a ejemplos nuevos y abstraen las características principales de
una serie de datos.

Aprender: adquirir el conocimiento de una cosa por medio del estudio, ejercicio
o experiencia. Las ANN pueden cambiar su comportamiento en función del entorno.
Se les muestra un conjunto de entradas y ellas mismas se ajustan para producir
unas salidas consistentes.

Generalizar: extender o ampliar una cosa. Las ANN generalizan automáticamente


debido a su propia estructura y naturaleza. Estas redes pueden ofrecer, dentro de
un margen, respuestas correctas a entradas que presentan pequeñas variaciones
debido a los efectos de ruido o distorsión.

Abstraer: aislar mentalmente o considerar por separado las cualidades de un


objeto. Algunas ANN son capaces de abstraer la esencia de un conjunto de entradas
que aparentemente no presentan aspectos comunes o relativos.

Existen cuatro aspectos que caracterizan una red neuronal: su topología, el mecanismo de
aprendizaje, tipo de asociación entre la información de entrada y de salida, y la forma de
representación de estas informaciones.

12
4.1. Topología
Consiste en la organización y disposición de las neuronas en la red formando capas
o agrupaciones de neuronas. Los parámetros fundamentales de la red son: número
de capas, número de neuronas por capa, grado de conectividad y tipo de conexión
entre neuronas.
Al hacer una clasificación topológica de las RNAs se suelen distinguir:
4.1.1. Redes monocapa: se establecen conexiones laterales entre las
neuronas que pertenecen a la única capa que constituye la red. Ejemplos
de redes de este tipo son la rede HOPPFIELD y la rede BRAIN-STATE-
IN-A-BOX. Las redes monocapa se utilizan típicamente en tareas
relacionadas con lo que se conoce como autoasociación; por ejemplo,
para regenerar informaciones de entrada que se presenta como
incompleta o distorsionada.
4.1.2. Redes multicapa: disponen las neuronas agrupadas en varios niveles.
Dado que este tipo de redes disponen de varias capas, las conexiones
entre neuronas pueden ser del tipo feedforward (conexión hacia
adelante) o del tipo feedback (conexión hacia atrás).

4.2. Mecanismos de aprendizaje

El aprendizaje es el proceso por el cual una red neuronal modifica sus pesos
en respuesta a una información de entrada. Los cambios que se producen
durante la etapa de aprendizaje se reducen a la destrucción (el peso de la
conexión toma el valor 0), modificación y creación (el peso de la conexión
toma un valor distinto de 0) de conexiones entre las neuronas. Podemos
considerar que el proceso de aprendizaje ha terminado cuando los valores
de los pesos permanecen estables

dwj / dt = 0

Un aspecto importante es determinar los criterios de la regla de aprendizaje; cómo se van


a modificar los pesos. De forma general se consideran dos tipos de reglas:

1. Aprendizaje supervisado
2. Aprendizaje no supervisado

La diferencia entre ambos tipos estaba en la existencia o no de un agente externo que


controle todo el proceso.
13
Otro criterio para diferenciar las reglas de aprendizaje se basa en considerar si la red puede
aprender durante su funcionamiento (aprendizaje ON LINE) o requiere de una fase previa
de entrenamiento (aprendizaje OFF LINE). En este último debe existir un conjunto de datos
de entrenamiento y un conjunto de datos de test o prueba; igualmente los pesos de las
conexiones no se modifican después de terminar la etapa de entrenamiento de la red. En
la red ON LINE los pesos varían dinámicamente cada vez que se presente una nueva
información al sistema.

4.3. Redes con aprendizaje supervisado


Se caracteriza porque el proceso de aprendizaje se realiza mediante un
entrenamiento controlado por un agente externo (supervisor, maestro) que
determina la respuesta que debería generar la red a partir de una entrada
determinada. El supervisor comprueba la salida generada por el sistema y
en el caso de que no coincida con la esperada, se procederá a modificar los
pesos de las conexiones.
En este tipo de aprendizaje se suelen distinguir a su vez tres formas de
llevarlo a cabo:

4.3.1. Aprendizaje por corrección de error: Consiste en ajustar los pesos de


las conexiones de la red en función de la diferencia entre los valores
deseados y los obtenidos en la salida. La fórmula para la corrección de
los pesos podría ser la siguiente:
Incr(wji) = ß yi (dj - yj)
siendo:

Incr(wji): Variación en el peso de la conexión entre las neuronas i y j


yi: Salida de la neurona i
dj: Valor de salida deseado para la neurona j
yj: Valor de salida obtenido en la neurona j
ß: Factor de aprendizaje (0 < ß <= 1) que regula la velocidad del
aprendizaje.

14
Algoritmos que utilizan este tipo de aprendizaje son:

 Regla de aprendizaje del perceptron: utilizada en la red


PERCEPTRON
 Regla delta o del mínimo error cuadrado: utilizado en las redes
ADALINE y MADALINE.
 Regla delta generalizada: utilizada en redes multicapa

4.3.2. Aprendizaje por refuerzo: este tipo de aprendizaje es más lento que el
anterior y se basa en la idea de no disponer de un ejemplo completo del
comportamiento deseado; es decir, de no indicar durante el
entrenamiento la salida exacta que se desea que proporcione la red ante
una determinada entrada. Aquí la función del supervisor se reduce a
indicar mediante una señal de refuerzo si la salida obtenida en la red se
ajusta a la deseada (éxito = +1 o fracaso = -1) y en función de ello se
ajustan los pesos basándose en un mecanismo de probabilidades.

Ejemplos de este tipo de algoritmos son el denominado Linear Reward-


Penalty o LR-P [Narenda 74] y el Adapative Heuristic Critic [Barto 83]
utilizado en redes feedforward de tres capas.

4.3.3. Aprendizaje estocástico: consiste básicamente en realizar cambios


aleatorios en los valores de los pesos y evaluar su efecto a partir del
objetivo deseado y de distribuciones de probabilidad. Una red que utiliza
este tipo de aprendizaje es la red Boltzman Machine, ideada por Hinton,
Ackley y Sejnowski en 1984 y la red Cauchy Machine desarrollada por
Szu en 1986.

4.4. Redes con aprendizaje no supervisado


No requieren de influencia externa para ajustar los pesos de las conexiones
entre sus neuronas. La red no recibe ninguna información por parte del
entorno que le indique si la salida generada en respuesta a una determinada
entrada es o no correcta; son capaces de auto organizarse. Estas redes
deben encontrar las características, regularidades, correlaciones o
categorías que se pueden establecer entre los datos de la entrada. Pero,
¿qué genera la red en la salida? Existen varias posibilidades en cuanto a
interpretación:
15
 La salida representa el grado de familiaridad o similitud entre la
información de entrada y las informaciones mostradas con
anterioridad.
 Clusterización o establecimiento de categorias, indicando la red
a la salida a qué categoría pertenece la información de entrada,
siendo la propia red la que debe establecer las correlaciones
oportunas.
 Codificación de los datos de entrada, generando a la salida una
versión codificada con menos bits, pero manteniendo la
información relevante de los datos.
 Mapeo de características, obteniéndose una disposición
geométrica que representa un mapa topográfico de las
características de los datos de entrada.

Los algoritmos de aprendizaje no supervisado suelen ser de dos


tipos:

4.4.1. Aprendizaje hebbiano: pretende medir la familiaridad o extraer


características de los datos de entrada. Este aprendizaje consiste
básicamente en el ajuste de los pesos de las conexiones de acuerdo con
la correlación de los valores de activación (salidas) de las dos neuronas
conectadas:
Incr (wji) = yi yj
Si las dos unidades son activas (salida positiva), se produce un
reforzamiento de la conexión. Si, por el contrario, una es activa y la otra
pasiva (salida negativa), se produce un debilitamiento de la conexión.
Por tanto, la modificación de los pesos se realiza en función de los
estados (salidas) de las neuronas, obtenidos tras la presentación de
cierto estímulo (información de entrada), sin tener en cuenta si se
deseaba obtener o no esos estados de activación.
Este tipo de aprendizaje se utiliza en la RED HOPFIELD (1982),
ADDITIVE GROSSBERG (1973), LEARNING MATRIX (1961),
BIDIRECTIONAL ASSOCIATIVE MEMORY(1988), TEMPORAL
ASSOCIATIVE MEMORY (1972). Estas dos últimas son redes
feedforward/feedback de 2 capas.

16
4.4.2. Aprendizaje competitivo y cooperativo: las neuronas compiten unas
con otras con el fin de llevar a cabo una tarea dada. Se pretende que
cuando se presente a la red cierta información, sólo una o un grupo de
ellas se activen. Por tanto las neuronas compiten por activarse,
quedando las perdedoras a sus valores de respuesta mínimos. La
conexión entre neuronas se realiza en todas las capas de la red,
existiendo en estas neuronas conexiones recurrentes de autoexcitación
y conexiones de inhibición (signo negativo) por parte de neuronas
vecinas.
El objetivo de este aprendizaje es categorizar (clustering) los datos que
se introducen en la red. De esta forma, las informaciones similares son
clasificadas formando parte de la misma categoría, activando por tanto
la misma neurona de salida. La variación del peso de una conexión entre
una unidad i y otra j será nula si la neurona j no recibe excitación por
parte de la neurona i y se modificará si es excitada por dicha neurona i.
Un ejemplo de este tipo de aprendiaje es el desarrollado por Kohonen
conocido como Learning Vector Quantization (LVQ) aplicado a redes
feedforward de dos capas.

4.5. Tipo de asociación entre las informaciones de entrada y salida


Las redes neuronales son sistemas que almacenan cierta información
aprendida; esta se registra de forma distribuida en los pesos asociados
a las conexiones entre neuronas. Hay que establecer cierta relación o
asociación entre la información presentada a la red y la salida ofrecida
por esta. Es lo que se conoce como memoria asociativa.
Existen dos formas primarias de realizar esta asociación
entrada/salida y que generan dos tipos de redes:

4.5.1. Redes heteroasociativas: La red aprende parejas de datos [(A1,B1),


(A2,B2),....(An,Bn)], de tal forma que cuando se le presente determinada
información de entrada Ai responda con la salida correspondiente Bi. Al
asociar informaciones de entrada con diferentes informaciones de salida,
precisan al menos de 2 capas, una para captar y retener la información
de entrada y otra para mantener la salida con la información asociada.
Si esto no fuese así se perdería la información inicial al obtenerse la
salida asociada; es necesario mantener la información de entrada puesto
que puede ser necesario acceder varias veces a ella, por lo que debe
17
permanecer en la capa de entrada. El aprendizaje de este tipo de redes
puede ser con supervisión.
4.5.2. Redes autoasociativas: La red aprende ciertas informaciones A1,
A2,..., An de forma que cuando se le presenta una información de
entrada realizará una autocorrelación, respondiendo con uno de los
datos almacenados, el más parecido al de entrada. Este tipo de redes
pueden implementarse con una sola capa de neuronas. El tipo de
aprendizaje utilizado habitualmente es el no supervisado y suelen
utilizarse en tareas de filtrado de información para la reconstrucción de
datos, eliminando distorsiones o ruido, explorar relaciones entre
informaciones similares para facilitar la búsqueda por contenido en
bases de datos y para resolver problemas de optimización.

4.6. Representación de la información de entrada y salida

4.6.1. Redes continúas: En un gran número de redes, tanto los datos de


entrada como de salida son de naturaleza analógica (valores reales
continuos y normalmente normalizados, por lo que su valor absoluto será
menor que la unidad). En este caso las funciones de activación de las
neuronas serán también continúas, del tipo lineal o sigmoidal.

4.6.2. Redes discretas: Por el contrario, otras redes sólo admiten valores
discretos [0,1] a la entrada, generando también en la salida respuestas
de tipo binario. La función de activación en este caso es del tipo escalón.

4.6.3. Redes híbridas: La información de entrada es continúa pero a la salida


ofrecen información binaria.

18
5. Elementos básicos que componen una red neuronal.

La

misma está constituida por neuronas interconectadas y arregladas en tres capas (esto
último puede variar). Los datos ingresan por medio de la “capa de entrada”, pasan a través
de la “capa oculta” y salen por la “capa de salida”. Cabe mencionar que la capa oculta
puede estar constituida por varias capas.

Antes de comenzar el estudio sobre las redes neuronales, se debe aprender algo sobre las
neuronas y de cómo ellas son utilizadas por una red neuronal. En la Figura 4.2 se compara
una neurona biológica con una neurona artificial. En la misma se pueden observar las
similitudes entre ambas (tienen entradas, utilizan pesos y generan salidas).

Mientras una neurona es muy pequeña en sí misma, cuando se combinan cientos, miles o
millones de ellas pueden resolver problemas muy complejos. Por ejemplo, el cerebro
humano se compone de billones de tales neuronas.

19
5.1.1. Función de entrada (input function).
La neurona trata a muchos valores de entrada como si fueran uno solo; esto
recibe el nombre de entrada global. Por lo tanto, ahora nos enfrentamos al
problema de cómo se pueden combinar estas simples entradas (ini1, ini2,
...) dentro de la entrada global, gini. Esto se logra a través de la función de
entrada, la cual se calcula a partir del vector entrada. La función de entrada
puede describirse como sigue:

donde: *

representa al operador apropiado (por ejemplo: máximo, sumatoria, productoria, etc.), n al


número de entradas a la neurona Ni y wi al peso.

Los valores de entrada se multiplican por los pesos anteriormente ingresados a la neurona.
Por consiguiente, los pesos que generalmente no están restringidos cambian la medida de
influencia que tienen los valores de entrada. Es decir, que permiten que un gran valor de
entrada tenga solamente una pequeña influencia, si estos son lo suficientemente pequeños.

Figura 4.3: ejemplo de una neurona con 2 entradas y 1 salida.

La nomenclatura utilizada en la Figura 4.3 es la siguiente: ini1 = entrada número 1 a la


neurona Ni; wi1 = peso correspondiente a ini1; ini2 = entrada número 2 a la neurona Ni;
wi2 = peso correspondiente a ini2; y outi = salida de la neurona Ni. El conjunto de todas las
n entradas ini = (ini1, ini2, ..., inin) es comúnmente llamado “vector entrada”. Algunas de las
funciones de entrada más comúnmente utilizadas y conocidas son:

20
1)Sumatoria de las entradas pesadas: es la suma de todos los valores de entrada a la
neurona, multiplicados por sus correspondientes pesos.

∑ nij wij , con j = 1, 2, ..., n


2)Productoria de las entradas pesadas: es el producto de todos los valores de entrada a
la neurona, multiplicados por sus correspondientes pesos.

 nij wij , con j = 1, 2, ..., n


3)Máximo de las entradas pesadas: solamente toma en consideración el valor de entrada
más fuerte, previamente multiplicado por su peso correspondiente.

5.1.2. Función de activación (activation function).


Una neurona biológica puede estar activa (excitada) o inactiva (no excitada);
es decir, que tiene un “estado de activación”. Las neuronas artificiales
también tienen diferentes estados de activación; algunas de ellas solamente
dos, al igual que las biológicas, pero otras pueden tomar cualquier valor
dentro de un conjunto determinado.
La función activación calcula el estado de actividad de una neurona;
transformando la entrada global (menos el umbral, i) en un valor (estado)
de activación, cuyo rango normalmente va de (0 a 1) o de (–1 a 1). Esto es
así, porque una neurona puede estar totalmente inactiva (0 o –1) o activa
(1).

La función activación, es una función de la entrada global (gini) menos el umbral ( i).

5.1.3. Función de salida (output function).


El último componente que una neurona necesita es la función de salida. El
valor resultante de esta función es la salida de la neurona i (outi); por ende,
la función de salida determina que valor se transfiere a las neuronas
vinculadas. Si la función de activación está por debajo de un umbral
determinado, ninguna salida se pasa a la neurona subsiguiente.
Normalmente, no cualquier valor es permitido como una entrada para una
neurona, por lo tanto, los valores de salida están comprendidos en el rango
[0, 1] o [-1, 1]. También pueden ser binarios {0, 1} o {-1, 1}. Dos de las
funciones de salida más comunes son:

21
 Ninguna: este es el tipo de función más sencillo, tal que la salida es
la misma que la entrada. Es también llamada función identidad.

5.2. Niveles o capas de una red neuronal.


La distribución de neuronas dentro de la red se realiza formando niveles o
capas, con un número determinado de dichas neuronas en cada una de
ellas. A partir de su situación dentro de la red, se pueden distinguir tres tipos
de capas:

 De entrada: es la capa que recibe directamente la información


proveniente de las fuentes externas de la red.
 Ocultas: son internas a la red y no tienen contacto directo con el
entorno exterior. El número de niveles ocultos puede estar entre cero
y un número elevado. Las neuronas de las capas ocultas pueden
estar interconectadas de distintas maneras, lo que determina, junto
con su número, las distintas topologías de redes neuronales.
 De salidas: transfieren información de la red hacia el exterior.

6. Tipos de neuronas artificiales.


Las neuronas artificiales se pueden clasificar de acuerdo a los valores que pueden
tomar. Por ahora es suficiente distinguir entre dos tipos principales:

a. Neuronas binarias.
b. Neuronas reales.

Las neuronas binarias solamente pueden tomar valores dentro del intervalo
{0, 1} o {-1, 1}, mientras que las neuronas reales pueden hacerlo dentro del rango
[0, 1] o [-1, 1]. Los peso normalmente no están restringidos a un cierto intervalo,
aunque para aplicaciones específicas puede ser esto necesario.

22
7. Técnicas de decisión.

En general, el proceso de decisión puede ser caracterizado como se muestra en el


diagrama de la Figura:

Figura: esquema del proceso de decisión.

Lo mismo ocurre cuando se utiliza una red neuronal como un sistema de sostén de
decisiones. La salida de la red neuronal es directa o indirectamente la solución al problema
o la decisión a tomar. Por ejemplo: si uno desea determinar si un cliente, el cual está
preguntando por la solicitud de un crédito, es un buen candidato (lo que significa que es
confiable, o sea, que puede devolver el crédito solicitado), se podrían tomar en
consideración variables o atributos tales como “antecedentes de créditos, pasivo, garantías
y ganancias”. Las variables o atributos pertenecientes a un cliente específico son las
entradas al proceso de decisión. El resultado de tal proceso podría ser una decisión similar
a la siguiente: “cliente bueno” o “cliente malo”.

Los atributos expuestos en la Tabla serán tomados en cuenta para el caso del puntaje para
un crédito:

Abreviaci Nombre Valor


ón es
Mala
A1 Historia de Desconoc
créditos ida Buena
Alto
A2 Pasivo
Bajo
Ningu
A3 Garantía
na
Adecua
1
A4 Ganancia da(baja
)
2
(adecuada
A menudo las reglas que muestran la lógica (o falta de lógica) sobre las que se basan las
)
decisiones no son tan obvias. Por lo tanto, una persona que no 3 conoce mucho acerca del
(alta)
sujeto que solicita el préstamo, no puede tomar una decisión correcta. Notar que aquí los
valores son más bien simbólicos que numéricos. Las redes neuronales reales necesitan
23
entradas numéricas, pero por el momento se utilizarán entradas simbólicas para facilitar el
entendimiento.

En la Tabla se presenta un conjunto de datos de anteriores situaciones de decisión, cada


una de ellas caracterizada por diferentes valores de las variables de entrada, con su
respectiva decisión (0 es un cliente bueno, 1 uno promedio y 2 uno malo).

Dentro de esta base de datos yace el procedimiento de decisión, o en otras palabras, la


regla de decisión que conforma las bases para el problema de decisión: “puntaje para un
crédito”.

La pregunta a contestar ahora es: ¿puede encontrarse una estructura o regla de decisión
en este conjunto de datos? La respuesta es si, las redes neuronales pueden hallar una
regla de decisión a través de un conjunto de datos como el presentado en la Tabla siguiente.

N A1 A A3 A Clase
0º malo 2
al ningun 41 2
10 conoci to
al o
ningun 2 2
02 do
conoci to
b o
ningun 2 1
03 do
conoci aj
b o
ningun 1 2
40 do
conoci o
aj
b o
ningun 3 0
50 do
conoci o
aj
b o
adecuad 3 0
06 do
malo o
aj
b oningun 1 2
07 malo o
aj
b o
adecuad 3 1
80 bueno o
aj
b oningun 3 0
91 bueno o
aj
al o
adecuad 3 0
10 bueno o
to
al oningun 1 2
1 bueno to
al o
ningun 2 1
21 bueno to
al o
ningun 3 0
31 bueno to
al o
ningun 2 2
4 to o
8. Aplicaciones de las redes neuronales. Las redes neuronales pueden utilizarse en
un gran número y variedad de aplicaciones, tanto comerciales como militares. Se
pueden desarrollar redes neuronales en un periodo de tiempo razonable, con la
capacidad de realizar tareas concretas mejor que otras tecnologías. Cuando se
implementan mediante hardware (redes neuronales en chips VLSI), presentan una
alta tolerancia a fallos del sistema y proporcionan un alto grado de paralelismo en
el procesamiento de datos. Esto posibilita la inserción de redes neuronales de bajo
coste en sistemas existentes y recientemente desarrollados. Hay muchos tipos
diferentes de redes neuronales; cada uno de los cuales tiene una aplicación
particular más apropiada. Algunas aplicaciones comerciales son:

24
• Biología:
- Aprender más acerca del cerebro y otros sistemas.
- Obtención de modelos de la retina.
• Empresa:
- Evaluación de probabilidad de formaciones geológicas y petrolíferas.
- Identificación de candidatos para posiciones específicas.
- Explotación de bases de datos.
- Optimización de plazas y horarios en líneas de vuelo.
- Optimización del flujo del tránsito controlando convenientemente la
temporización de los semáforos.
- Reconocimiento de caracteres escritos.
- Modelado de sistemas para automatización y control.
• Medio ambiente:
- Analizar tendencias y patrones.
- Previsión del tiempo.
• Finanzas:
- Previsión de la evolución de los precios.
- Valoración del riesgo de los créditos.
- Identificación de falsificaciones.
- Interpretación de firmas.

25
• Manufacturación:
- Robots automatizados y sistemas de control (visión artificial y
sensores de presión, temperatura, gas, etc.).
- Control de producción en líneas de procesos.
- Inspección de la calidad.
• Medicina:
- Analizadores del habla para ayudar en la audición de sordos profundos.
- Diagnóstico y tratamiento a partir de síntomas y/o de datos analíticos
(electrocardiograma, encefalogramas, análisis sanguíneo, etc.).
- Monitorización en cirugías.
- Predicción de reacciones adversas en los medicamentos.
- Entendimiento de la causa de los ataques cardíacos.
• Militares:
- Clasificación de las señales de radar.
- Creación de armas inteligentes.
- Optimización del uso de recursos escasos.
- Reconocimiento y seguimiento en el tiro al blanco.

La mayoría de estas aplicaciones consisten en realizar un reconocimiento de patrones,


como ser: buscar un patrón en una serie de ejemplos, clasificar patrones, completar una
señal a partir de valores parciales o reconstruir el patrón correcto partiendo de uno
distorsionado. Sin embargo, está creciendo el uso de redes neuronales en distintos tipos
de sistemas de control.

Desde el punto de vista de los casos de aplicación, la ventaja de las redes neuronales
reside en el procesado paralelo, adaptativo y no lineal.

El dominio de aplicación de las redes neuronales también se lo puede clasificar de la


siguiente forma: asociación y clasificación, regeneración de patrones, regresión y
generalización, y optimización.

26
9. Aplicaciones
RNA las hacen bastante apropiadas para aplicaciones en las que no se dispone
a priori de un modelo identificable que pueda ser programado, pero se dispone
de un conjunto básico de ejemplos de entrada (previamente clasificados o no).
Asimismo, son altamente robustas tanto al ruido como a la disfunción de
elementos concretos y son fácilmente paralelizables.

Esto incluye problemas de clasificación y reconocimiento de patrones de voz, imágenes,


señales, etc. Asimismo, se han utilizado para encontrar patrones de fraude económico,
hacer predicciones en el mercado financiero, hacer predicciones de tiempo atmosférico,
etc. También se pueden utilizar cuando no existen modelos matemáticos precisos o
algoritmos con complejidad razonable, por ejemplo la red de Kohonen ha sido aplicada
con un éxito más que razonable al clásico problema del viajante (un problema para el
que no se conoce solución algorítmica de complejidad polinómica).

Otro tipo especial de redes neuronales artificiale se ha aplicado en conjunción con los
algoritmos genéticos (AG) para crear controladores para robots. La disciplina que trata
la evolución de redes neuronales mediante algoritmos genéticos se denomina Robótica
Evolutiva. En este tipo de aplicación el genoma del AG lo constituyen los parámetros de
la red (topología, algoritmo de aprendizaje, funciones de activación, etc.) y la adecuación
de la red viene dada por la adecuación del comportamiento exhibido por el robot
controlado (normalmente una simulación de dicho comportamiento).

9.1. Aplicaciones de la vida real


Las tareas se aplican a las redes neuronales artificiales tienden a caer
dentro de las siguientes categorías generales:

 Aproximación de funciones, o el análisis de regresión, incluyendo la


predicción de series de tiempo, aproximación de la capacidad y el
modelado.
 Clasificación, incluyendo el patrón y la secuencia de reconocimiento,
detección y de la toma de decisiones secuencial.
 Procesamiento de datos, incluyendo el filtrado, el agrupamiento, la
separación ciega de fuentes y compresión.
 Robótica, incluyendo manipuladores, que dirigen la prótesis.
 De control, incluyendo control numérico por ordenador.

27
Las áreas de aplicación incluyen la identificación del sistema y el
control (control del vehículo, predicción de la trayectoria, el control de
procesos , recursos naturales gestión), la química cuántica , juego de
papeles y la toma de decisiones (backgammon, ajedrez, póquer ), el
reconocimiento de patrones (radar sistemas, identificación de la cara,
reconocimiento de objetos y más), de reconocimiento de secuencia
(gesto, voz, reconocimiento de texto escrito a mano), diagnóstico
médico , aplicaciones financieras (por ejemplo, sistemas
automatizados de comercio ), minería de datos (o descubrimiento de
conocimiento en bases de datos, "KDD"), la visualización y el spam
de correo electrónico filtrado.
Las redes neuronales artificiales se han utilizado también para el
diagnóstico de varios tipos de cáncer. Un sistema de detección de
cáncer de pulmón híbrido basado ANN llamado HLND mejora la
precisión del diagnóstico y la velocidad de la radiología cáncer de
pulmón. Estas redes también se han utilizado para diagnosticar el
cáncer de próstata. Los diagnósticos se pueden utilizar para hacer
modelos específicos tomados de un gran grupo de pacientes en
comparación con la información de un paciente dado. Los modelos
no dependen de suposiciones acerca de las correlaciones de
diferentes variables. El cáncer color rectal también se ha previsto el
uso de las redes neuronales. Las redes neuronales podrían predecir
el resultado de un paciente con cáncer color rectal con más precisión
que los métodos clínicos actuales. Después del entrenamiento, las
redes podrían predecir múltiples resultados de los pacientes de
instituciones relacionadas.

9.2. Las redes neuronales y la neurociencia


Teórico y neurociencia computacional es el ámbito en cuestión con el
análisis teórico y el modelado computacional de sistemas neuronales
biológicos. Dado que los sistemas neurales están íntimamente
relacionados con los procesos cognitivos y de comportamiento, el
campo está muy relacionada con el modelado cognitivo y conductual.
El objetivo del campo es la creación de modelos de sistemas
neuronales biológicas con el fin de comprender cómo funcionan los
sistemas biológicos. Para ganar este entendimiento, los neurólogos
se esfuerzan por hacer un vínculo entre los procesos biológicos

28
observados (datos), biológicamente plausibles mecanismos para el
procesamiento neuronal y aprendizaje (redes neuronales biológicas
modelos) y la teoría (teoría del aprendizaje estadístico y teoría de la
información).

9.3. Tipos de modelos


Muchos modelos se utilizan en el campo, que se define en diferentes
niveles de abstracción y el modelado de diferentes aspectos de los
sistemas neurales. Se extienden a partir de modelos de
comportamiento a corto plazo de las neuronas individuales, los
modelos de cómo surgen de la dinámica de los circuitos neuronales
de la interacción entre las neuronas individuales y, finalmente, a los
modelos de cómo puede surgir el comportamiento de los módulos
neuronales abstractos que representan completa subsistemas. Estos
incluyen modelos de largo plazo y corto plazo plasticidad, de los
sistemas neuronales y sus relaciones con el aprendizaje y la memoria
de la neurona individual a nivel del sistema.

9.4. Las redes con memoria


La integración de los componentes de memoria externa con redes
neuronales artificiales tiene una larga historia que se remonta a las
primeras investigaciones en las representaciones distribuidas y
mapas de auto-organización. Por ejemplo, en memoria distribuida
dispersa los patrones codificados por las redes neuronales se utilizan
como direcciones de memoria para la memoria de contenido
direccionable, con "neuronas" que sirven esencialmente como
dirección codificadores y decodificadores.
Más recientemente aprendizaje profundo ha demostrado ser útil en
hashing semántica, donde un profundo modelo gráfico de los
vectores de palabra de recuento de se obtiene a partir de un gran
conjunto de documentos. Los documentos se asignan a las
direcciones de memoria de tal manera que los documentos
semánticamente similares se encuentran en direcciones cercanas.
Documentos similares a un documento de consulta a continuación,
se pueden encontrar simplemente accediendo a todas las direcciones
que difieren por sólo unos pocos bits de la dirección del documento
de consulta.

29
Redes de memoria es otra extensión de las redes neuronales que
incorporan la memoria a largo plazo que fue desarrollado por
Facebook investigación. La memoria a largo plazo puede ser leído y
escrito para, con el objetivo de utilizarlo para la predicción. Estos
modelos se han aplicado en el contexto de la búsqueda de
respuestas (QA), donde la memoria a largo plazo que de hecho actúa
como un (dinámico) base de conocimientos, y la salida es una
respuesta textual.

Máquinas de Turing neuronales desarrollados por Google


DeepMindampliar las capacidades de las redes neuronales
profundas mediante el acoplamiento a los recursos de memoria
externos, que pueden interactuar con los procesos atencionales. El
sistema combinado es análogo a una máquina de Turing pero es
diferenciable de extremo a extremo, lo que le permite ser entrenado
de manera eficiente con descenso de gradiente. Los resultados
preliminares demuestran que las máquinas de Turing neuronales
puede deducir algoritmos simples, tales como copiar, clasificar, y
recuerdo asociativo a partir de ejemplos de entrada y salida.

Ordenadores neuronales diferenciables (DNC) son una extensión de


las máquinas de Turing neuronal, también de DeepMind. Se han
realizado fuera de las máquinas de Turing neuronales, la memoria de
largo a corto plazo los sistemas y redes de la memoria en las tareas
de procesamiento de secuencia.

9.5. Software de red neuronal


Software de la red neuronal se utiliza para simular, la investigación,
desarrollo y aplicación de redes neuronales artificiales, redes
neuronales biológicas y, en algunos casos, una gama más amplia de
sistemas adaptativos.

30
10. Potencia de calculo
El perceptrón multicapa es un aproximado de la función universal, como lo
demuestra el teorema de aproximación universal . Sin embargo, la prueba no es
constructivo sobre el número de neuronas es necesario, la topología de red, la
configuración de los pesos y los parámetros de aprendizaje.

El trabajo de Hava Siegelmann y Eduardo D. Sontag ha proporcionado una


prueba de que una arquitectura específica recurrente con los pesos valorados
racionales (en oposición a la precisión total número real -valued pesos) tiene
toda la potencia de una máquina universal de Turing [59]utilizando un número
finito de las neuronas y las conexiones lineales estándar. Además, se ha
demostrado que el uso de valores irracionales para resultados pesos en una
máquina con super-Turing poder.

10.1. Capacidad
Los modelos de redes neuronales artificiales tienen una propiedad
denominada "capacidad", que corresponde aproximadamente a su
capacidad para modelar cualquier función dada. Se relaciona con la
cantidad de información que puede ser almacenada en la red y a la
noción de complejidad.

10.2. Convergencia
Nada se puede decir en general sobre la convergencia ya que
depende de una serie de factores. En primer lugar, pueden existir
muchos mínimos locales. Esto depende de la función de coste y el
modelo. En segundo lugar, el método de optimización utilizado no
puede ser garantizado a converger cuando lejos de un mínimo local.
En tercer lugar, para una cantidad muy grande de datos o parámetros,
algunos métodos se vuelven poco práctico. En general, se ha
encontrado que las garantías teóricas sobre la convergencia son una
guía fiable para la aplicación práctica.

10.3. Generalización y estadísticas


En aplicaciones donde el objetivo es crear un sistema que generaliza
bien en los ejemplos que no se ven, ha surgido el problema de la
formación excesiva. Esto surge en los sistemas complicados o sobre
especificadas cuando la capacidad de la red supera

31
significativamente los parámetros libres necesarios. Hay dos
escuelas de pensamiento para evitar este problema: La primera es
utilizar la validación cruzada técnicas similares y para comprobar la
presencia de un exceso de entrenamiento y de manera óptima
seleccione hiper- tales que se minimice el error de generalización. La
segunda es utilizar algún tipo de regularización . Este es un concepto
que surge de manera natural en un marco probabilístico (Bayesiano),
donde la regularización puede realizarse mediante la selección de
una probabilidad a priori más grande sobre los modelos más simples;
sino también en la teoría estadística de aprendizaje, donde el objetivo
es reducir al mínimo más de dos cantidades: el "riesgo empírico" y el
"riesgo estructural ', que corresponde aproximadamente al error
sobre el conjunto de entrenamiento y el error de predicción en los
datos que no se ven debido a sobreajuste.

11. Circuito neuronal


Una red neuronal biológica o un circuito neuronal es un conjunto de conexiones
sinápticas ordenadas que se produce como resultado de la unión de las
neuronas a otras en sus regiones correspondientes tras la migración neuronal.

El crecimiento dirigido de los axones (El axón, cilindroeje o neurita es una


prolongación de las neuronas especializadas en conducir el impulso nervioso
desde el cuerpo celular o soma hacia otra célula. En la neurona adulta se trata
de una prolongación única) y el reconocimiento de las estructuras sinápticas está
mediado por el cono de crecimiento, que es una especialización en el extremo
de cada axón en crecimiento. El cono de crecimiento detecta y responde a
moléculas de señalización que pueden ser de retraimiento, giro o continuación,
que identifican las vías correctas, prohíben las incorrectas y facilitan la formación
de sinapsis. Además, hay factores de crecimiento que influyen en el crecimiento
axónico y en la formación de sinapsis, y regulan las cantidades apropiadas que
debe haber entre los axones y las células.

32
12. Herramientas de software

Existen muchas herramientas de software que implementan redes neuronales


artificiales, tanto libres como comerciales como, por ejemplo:
 Emergent
 FANN
 Neural Designer
 NeuroIntelligence
 Neuroph
 NeuroSolutions
 Synapse
 OpenNN

13. El primer software de redes neuronales

Las redes neuronales son una excitante forma de inteligencia artificial que imita el
proceso de aprendizaje del cerebro con el fin de extraer patrones de la tecnología de
datos históricos para trabajar para usted.

La familia de productos Neuro Solutions es un software de red neuronal de vanguardia


para la minería de datos para crear modelos altamente precisos y predictivos utilizando
avanzadas técnicas de preprocesamiento, búsqueda inteligente de topología de redes
neuronales automatizada a través de la computación distribuida de vanguardia.

Analizar y preprocesar datos de SQL Server, Excel o archivos de texto en información


relevante para crear modelos de red neuronal predictiva de alta precisión.

Mina automáticamente tus datos para las relaciones ocultas en conjuntos de datos
pequeños o grandes utilizando redes neuronales avanzadas e inteligencia artificial.

Aproveche el enorme poder de procesamiento de las tarjetas gráficas y el


procesamiento distribuido en una sola máquina o miles.

Implementar rápidamente sus soluciones de redes neuronales para aplicaciones


Windows o Todas las plataformas.

33
OpenNN es una biblioteca informática escrita en C++ que implementa redes
neuronales. La biblioteca es de código abierto y ha sido distribuida bajo la Licencia
Pública General Reducida de GNU.

El software implementa el estado del arte en aprendizaje profundo, con un número


arbitrario de capas de transformaciones no lineales, lo que permite diseñar redes
neuronales con propiedades de aproximación universal. Por otro lado, utiliza
procesamiento en paralelo a través de OpenMP, con el fin de maximizar el rendimiento
computacional.

OpenNN consiste en un conjunto de funciones que pueden ser añadidas en otras


herramientas de software, para la integración de tareas de análisis predictivo en dichas
herramientas. De este modo, la biblioteca no cuenta con una interfaz gráfica, pero
algunas de las funciones que desarrolla pueden apoyarse con herramientas de
visualización específicas.

14. CASO DE EXITOS

Una empresa increíble que fabrica... ¡humanoides!

En 2004, cuatro ingenieros fundaron Pal Robotics. Después de la fabricación de varios


prototipos, sus robots humanoides están listos para conquistar espacios públicos como
universidades, bibliotecas, aeropuertos y hospitales.

Desde esta empresa defienden que los robots serán herramientas que permitirán
mejorar la capacidad del trabajo, ayudarán a las personas enfermas y desarrollarán
tareas peligrosas, como desactivar bombas o salvar vidas humanas en situaciones de
desastres naturales como la aparición de huracanes y terremotos. Pero los humanoides
formarán parte de nuestra familia dentro de 30 años, aproximadamente, ahora sólo se
espera de ellos que realicen un servicio público como el que llevó a cabo REEM en el
CosmoCaixa: la máquina trabajó de recepcionista, facilitando información sobre el
museo y sus actividades. Y la misma función informativa harán los humanoides,
próximamente, en hospitales y aeropuertos.

Los dos italianos se establecieron en Barcelona y conocieron a Joan Oliver y Oriol


Torres. Oliver había estudiado ingeniería industrial en la escuela Politècnica de
Catalunya (UPC) y se especializó en robótica, mientras que Torres había estudiado
ingeniería electrónica también en la UPC. Entre los cuatro, construyeron el prototipo
REEM-A, terminado en 2005 tras 14 meses de trabajo concienzudo. Se trataba de la
primera máquina bípeda construida en Europa. Tenía la habilidad de caminar, llegar a

34
la mesa, sentarse frente al tablero y saber jugar al ajedrez gracias al sistema Hydra. El
proyecto costó 500.000 euros financiado por Pal Group.

Dos años más tarde del REEM-A, Pal Robotics lanzó otro modelo más perfeccionado.
Se trataba del REEM-B, un prototipo capacitado con reconocimiento de voz y sensores
que le permitían explorar el entorno de forma autónoma además de desplazarse,
evitando los obstáculos, sin necesidad de ayuda humana. Y en junio de 2009, llegó el
REEM H1, el primer humanoide presentado en público, al que siguió, en diciembre del
año siguiente, el REEM H2 –versión mejorada del modelo anterior– en Abu Dabi. La
parte superior del ingenio tenía forma humana, pero se movía sobre una base de ruedas
e incorporaba una pantalla táctil en el pecho. Con este prototipo, se ganaba en
estabilidad, mejoraba la interacción con las personas en espacios abiertos, conseguía
reducir los costes de fabricación y también disminuía su necesidad de consumo
eléctrico.

El resultado final de todo lo anterior es el modelo REEM, el primero que la compañía


lanzó al mercado fruto del trabajo compartido con la Universitat Politècnica de Catalunya
(UPC) y con La Salle Ramon Llull. REEM habla 30 idiomas, mide 1,70 centímetros, pesa
90 kilos y puede funcionar hasta ocho horas sin la recarga de la batería. Se gestiona
con un mando de videoconsola y tiene los brazos móviles. Cada extremidad puede
soportar hasta tres kilos de peso.

35
15. Conclusiones

 De los intentos realizados en este sentido se han llegado a definir las


líneas fundamentales para la obtención de máquinas inteligentes. En un
principio los objetivos estaban dirigidos a la obtención de autómatas en
el sentido, en sentido maquinas que realizaran con más o menos éxitos
alguna función típica de los seres humanos.
 Esta tecnología puede ser desarrollada tanto en software con hardware
y con ella se pueden construir sistemas capaces de aprender, de
adaptarse a condiciones variantes, o inclusive si se dispone de una
colección suficiente grande de datos, predecir el estado futuro de algunos
modelos.

36
16. Webgrafía

37

Anda mungkin juga menyukai