VILLARREAL
ESCUELA UNIVERSITARIA DE POSTGRADO
Doctorado en Ingeniera
TTULO:
Redes Neuronales Artificiales aplicadas a la mejora de la calidad
Tesis presentada por el Magster Juan Manuel Cevallos Ampuero para optar el
Grado de Doctor en Ingeniera.
DEDICADO A:
Mis padres
AGRADECIMIENTO
ii
NDICE TEMTICO
Resumen
ix
Abstract
Sintesi
xi
Introduccin.
xii
CAPTULO I.
MARCO DE REFERENCIA
1.1.
1.2.
Marco Terico
15
1.3.
Marco Conceptual.
82
1.4.
Marco Filosfico
85
1.5.
Marco Epistemolgico
100
CAPTULO II.
PLANTEAMIENTO METODOLGICO
2.1. Enunciado del problema
113
2.2. Objetivos
113
113
114
CAPTULO III.
APLICACIN DE LA RED NEURONAL ARTIFICIAL DESARROLLADA Y
RESULTADOS
3.1. Anlisis de las caractersticas de las Arquitecturas de Redes
118
125
193
225
234
CAPTULO IV
ANLISIS DE RESULTADOS
244
CAPTULO V
DISCUSIN DE RESULTADOS
255
CONCLUSIONES Y RECOMENDACIONES
269
REFERENCIAS BIBLIOGRFICAS
272
ANEXOS
Anexo 1. Informe de Experto consultado sobre el Programa
Cmputo de la Red Desarrollada.
278
279
286
293
iv
NDICE DE TABLAS
16
17
19
20
21
23
24
24
33
51
119
126
128
Tabla 14. Datos del caso de Diseo de Experimentos, Del Castillo, et al. 148
Tabla 15. Comparacin Red Desarrollada Perceptrn Multicapa con
Backpropagation y Anlisis Estadstico Tradicional, para valores
Deseados
149
155
161
161
162
164
164
165
166
173
v
186
194
195
195
196
196
197
203
204
Tabla 34. Tabla de resultados, de mejor desempeo para largo y ancho 212
Tabla 35. Comparacin de Red Desarrollada con Redes Neuronales de
Funcin de Base Radial
213
224
225
226
227
235
235
236
258
vi
NDICE DE FIGURAS
16
23
30
31
36
37
39
39
40
41
42
42
44
45
46
46
47
52
53
54
61
63
69
70
72
78
79
80
81
vii
89
91
93
96
100
102
103
105
111
128
128
130
133
139
142
245
287
294
viii
RESUMEN
Con el objeto de superar las limitaciones que tiene el Anlisis Estadstico
Tradicional que se aplica al diseo de experimentos, por trabajar con
relaciones fundamentalmente lineales, se desarroll una metodologa que
aplica Redes Neuronales Artificiales RNA en los diseos de experimentos;
se analizaron diversas arquitecturas y se encontr que las RNA de Funcin
de Base Radial fueron las que dieron mejor resultado; dentro de ellas las
que tuvieron mejor desempeo fueron las de Diseo Exacto. Por ello se
construy la RNA Red Desarrollada que utiliza la distancia de
Mahalanobis, con la cual se obtuvo los mejores resultados. Con la
metodologa desarrollada, que elabora las Redes RNA Directa e Inversa,
adems de poder realizar los clculos que hace el Anlisis Estadstico
Tradicional para el diseo de experimentos, tambin se puede determinar
los valores de los parmetros de entrada con base a las caractersticas de
calidad deseadas. Asimismo, se lleg de determinar que se mejora la
exactitud mediante la optimizacin del clculo de las distancias de los
vectores de entrada a los centros y que la capacidad de interpolacin de los
resultados aumenta en la medida que se incrementa la amplitud hasta cierto
lmite, dependiendo del tipo de datos.
Palabras Clave: Inteligencia artificial, Calidad, Redes neuronales artificiales,
Mejora de calidad, Diseo de Experimentos, Perceptrn multicapa,
Backpropagation, Redes Neuronales Artificiales de Funcin de Base Radial.
ix
ABSTRACT
In order to overcome the limitations that has the Traditional Statistical
Analysis that applies to the design of experiments, by working with
essentially linear relations, it was developed a methodology that applies
Artificial Neural Network ANN in the designs of experiments; it was
discussed various architectures and found that ANN with Radial Basis
Function were giving the best result; within that had the best performance
were the ANN with Exact Design. Thus was built ANN
"Network
Development" which uses the distance of Mahalanobis, which won the best
results. With the methodology developed, that build Networks RNA direct
and reverse, as well as be able to perform calculations made by the
Traditional Statistical Analysis for design of experiments, you can also
determine the input parameters based on the quality characteristics desired.
Also, there was determined which improves accuracy through optimization
of calculating the distance of input vectors to the centres and that the ability
of interpolation of the results increases in the way that increases the
amplitude up to certain limit, depending the type of data.
Key Words: Artificial inteligence, Quality, Artificial neural networks, Quality
improve, Design of Experiments, Multilayer perceptron, Backpropagation,
Artificial Neural Networks of Function of Radial Basis
SINTESI
Al fine di superare i limiti che ha l'analisi statistica tradizionali che vale per il
disegno di esperimenti, di lavorare con le relazioni essenzialmente lineare,
messo a punto una metodologia che si applica Reti Neurali Artificiali RNA in
Disegni di Esperimenti; discusso varie architetture e rilevato che la RNA di
funzione di Base radiale sono state dando il risultato migliore, nel cui ha
dato loro le migliori prestazioni sono stati i Disegno Preciso. Cos stato
costruito RNA "Rete Sviluppati che utilizza la distanza di Mahalanobis, che
ha ottenuto i migliori risultati. Con la metodologia sviluppata, la compilazione
di reti di RNA diretta e inversa, cos come essere in grado di eseguire calcoli
delle analisi statistiche per il disegno tradizionale di esperimenti, anche
possibile
determinare
parametri
di
entrata
basata
sulla
qualit
xi
Introduccin
La mejora de la calidad de procesos en los sectores ms competitivos, en la
actualidad, se da en la calidad de diseo de los procesos (ello incluye el diseo
tanto de productos como de servicios), ello se ha identificado como el
Problema que se quiere trabajar. Problema que implica la determinacin de
los principales parmetros que permitan optimizar los diseos de procesos.
Para ello se requiere trabajar con varias variables dependientes e
independientes, las cules no siempre tienen una relacin lineal. Las
herramientas que en la actualidad se utilizan para determinar dichos
parmetros asumen relaciones lineales, obtenindose niveles de error que no
permiten obtener los resultados esperados.
La Delimitacin del Problema, est en que la determinacin de los
parmetros para la mejora de la calidad de los diseos de procesos se utilizan,
principalmente, los diseos de experimentos, diseos factoriales fraccionales,
los Mtodos Taguchi y las metodologas de superficie de respuesta; que tienen
la limitacin de asumir relaciones lineales entre las variables. Frente a esta
situacin algunos investigadores han empezado a utilizar Redes Neuronales
Artificiales, debido a que tienen la ventaja de no asumir relaciones lineales
entre las variables; pero utilizan Redes que han sido creadas para otros
propsitos distintos al de la mejora de la calidad de diseo de procesos. Esta
situacin lleva a considerar el uso de las RNA en la mejora de la calidad de
diseos de procesos muy escasamente debido a que no se obtendrn todas las
potencialidades propias de las RNA. (Lo antes mencionado se aplica tanto para
productos como para servicios).
La Caracterizacin del Problema, se basa en que se requiere disear un
nuevo tipo de Red Neuronal Artificial que permita su aplicacin ms adecuada
para la determinacin de los parmetros de calidad de diseo de procesos,
superando as las limitaciones que las RNA tienen en la actualidad para la
mejora de la calidad de diseo de procesos (tanto de productos como de
servicios).
Con base a lo antes expuesto se tiene que el Problema General es: Una Red
Neuronal Artificial especfica para la mejora de la calidad de diseo de
procesos, dar mejores resultados que los obtenidos con los anlisis
xii
xiii
es decir, hay un vaco que requiere ser llenado; lo cual es la razn de ser de la
presente Tesis.
Por otro lado la Importancia del Trabajo de Investigacin, radica en que las
RNA permiten determinar relaciones no lineales entre variables dependientes e
independientes. Con base a lo obtenido en las aplicaciones de RNA en otros
sectores, se considera que la aplicacin de las RNA en los trabajos de mejora
de la calidad de los procesos deben permitir llegar niveles muy superiores de
optimizacin y calidad, que los actuales. Como consecuencia de lo anterior,
este logro tambin debe permitir mejoras importantes en la competitividad y
productividad. La mejora de la competitividad y productividad de las empresas,
en especial en los pases en desarrollo, permitir su supervivencia, ya que en
el mundo globalizado que vivimos la mejora permanente es una condicin para
el xito.
Las limitaciones del Trabajo de Investigacin, radica en que las tcnicas de
mejora de la calidad de diseo de los procesos consideradas en el presente
plan son las ms importantes; sin embargo, pueden ser ms dependiendo del
tipo de producto o servicio de que se trate. Constantemente se vienen
desarrollando aportes sobre nuevas tcnicas para la mejora de la calidad,
mejoras de aplicacin de las existentes, combinacin de las mismas; sin
embargo, las seleccionadas para la realizacin del presente trabajo se
consideran que son las ms importantes.
La Hiptesis General, que se propone es que se puede desarrollar una Red
Neuronal Artificial especfica para la mejora de la calidad de diseo de
procesos, que aplicada a los diseos de experimentos d mejores resultados
que los obtenidos con los anlisis estadsticos tradicionales y las RNA ya
existentes, para los casos que se trabaje con varias variables dependientes e
independientes y en los que sus relaciones no sean lineales.
En el Captulo I se presenta el Marco de Referencia, donde los antecedentes
bibliogrficos sobre la materia, tratan tanto de temas de calidad como de redes
neuronales artificiales. Asimismo, se presenta el Marco Terico, donde se
consideran catorce grandes temas sobre el asunto de la investigacin,
destacando el tema referido a los principales tipos de Redes Neuronales
Artificiales; es as que se presentan las Redes tipo Perceptrn, Adaline,
Perceptrn Multicapa, Redes de Base Radial, Redes Recurrentes y Redes de
xiv
xv
CAPTULO I
MARCO DE REFERENCIA
1.1. Antecedentes Bibliogrficos del Problema
CEVALLOS, Juan (2004), en su artculo Aplicacin de Redes Neuronales
para Optimizar Problemas Multirespuesta en Mejora de la Calidad, publicado
en Industrial Data, Volumen 7 N 2; desarrolla una aplicacin de redes
neuronales en problemas multirespuesta para el mejoramiento de la calidad, a
partir de un anlisis conceptual se establece una aplicacin que demuestra la
eficacia de las redes neuronales utilizando el perceptrn multicapa con el
algoritmo backpropagation.
En este trabajo no se utiliza una red neuronal artificial que sea especfica para
mejora de la calidad.
LAWSON, John; MADRIGAL, Jos y ERJAVEC, John, (1992) en su texto
Estrategias experimentales para el mejoramiento de la calidad en la
industria, sostiene que La competencia en el mundo de los negocios est
obligando a las corporaciones industriales a encontrar nuevas formas de
incrementar su eficiencia, especialmente en el proceso de fabricacin y en el
desarrollo de nuevos procesos y productos. Estos ltimos incluyen: pruebas
de prototipo, desarrollo de nuevos componentes y diseo de sistemas,
eleccin de materia prima y determinacin de lmites de tolerancia. Debido a
que generalmente, no se tienen relaciones determinsticas para resolver estos
problemas, las investigaciones industriales o tcnicas, se llevan a cabo
usando mtodos de ensayo y error y/o experimentacin. Es as que se
presentan estrategias sobre los siguientes temas: estrategias experimentales y
diseos factoriales, diseos de diagnstico y factoriales fraccionados,
superficie de respuesta, experimentos con mezclas y anlisis de variancia.
BESTERFIELD, D. (1995) en su texto Control de Calidad, trata de manera
especial sobre las tcnicas de Grficas de control de variables y por atributos;
y Muestreo de aceptacin. Lo cual es fundamental para el control estadstico
de la calidad tradicional.
MONTGOMERY, Douglas (2004), en su texto Diseo y anlisis de
experimentos, en el prefacio indica El presente libro es un texto de
introduccin que aborda el diseo y anlisis de experimentos.
... Refleja
Incrementar su productividad.
productos.
-
Diseo de Experimentos, en un
reas:
reconocimiento
de
patrones,
bases
de
datos
de
Hebbiano
supervisado,
Adaline,
backpropagation
sus
presentan
los
siguientes modelos
de
redes neuronales:
En este texto no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
MONTAO, Juan. (2002), es su Tesis Doctoral Redes Neuronales Artificiales
aplicadas al Anlisis de Datos, se presenta al siguiente clasificacin de Redes
Neuronales Artificiales ms conocidas:
1. Supervisado
1. Con conexiones feedforward
-
Lineales:
Slo clasificacin :
Slo regresin:
3. Competitivo
-
2 No supervisado
1. Competitivo
-
Vector Quantization.
2. Reduccin de dimensionalidad
-
3. Autoasociacin
-
Perceptrn
Mquina de Boltzmann
Mapas autoorganizativos
Redes de Expansin.
el
entrenamiento
(aprendizaje).
Estas
dos
capacidades
de
problemas
complejos
que
son
corrientemente
insolubles.
Asimismo, sostiene que el uso de las redes neuronales ofrece las siguientes
propiedades y capacidades tiles: No linealidad; Mapeos Input Output;
Adaptabilidad; Respuesta a evidencias; Informacin contextual; Tolerancia a
las fallas; implementabilidad de tecnologa VLSI (very large scale integrated)
integrada a escala muy grande, uniformidad de anlisis y diseo, Analoga
neurobiolgica. Como parte de la introduccin afirma que se pueden identificar
cuatro diferentes clases de arquitecturas de redes: redes monocapa hacia
10
Adaline y Madaline
La red de contrapropagacin
11
temporal de Hecht-Nielsen.
El neocognitrn.
En este texto no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
COX, M. (2005), en su Artculo A Neural Netwok Method for Modelling the
Parameters of a CUSUM Chart. Quality Engineering 17; 197-205. 2005;
sostiene que la Grfica de Sumas Acumuladas CUSUM (Cumulative Sum
Charts) es ampliamente empleada en control de calidad para monitorear un
proceso o para evaluar datos histricos. Las grficas CUSUM estn diseadas
para exhibir promedios aceptables de longitud de corrida tanto cuando el
control es dentro o fuera del proceso. En su investigacin introduce una
tcnica funcional para generar los parmetros h y k para una grfica que
tendr un promedio de longitud de corrida especificado. Se emplea el mtodo
de redes neuronales artificiales para derivar los coeficientes apropiados. Se
utiliza la hoja de clculo EXCEL para los clculos de los parmetros.
En este Artculo no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
ZORRIASSATINE, f.y TANNOCK, D. (1998) en su Artculo A review of neural
networks for statistical process control, desarrolla este trabajo para evaluar la
literatura existente sobre la aplicacin de las redes neuronales para el anlisis
de las grficas tradicionales de Shewart de control estadstico de procesos.
Luego de su estudio da recomendaciones sobre la aplicacin, sin embargo,
sostiene que todava no se ha podido desarrollar una metodologa de redes
neuronales equivalente a las tradicionales grficas de Shewart, aunque afirma
que el conocimiento en esta rea est aumentando.
En este Artculo no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
12
FDD (fault detection and diagnosis ) usando grficas de control CUSUM y una
red neuronal de funcin bsica radial RBF (radial basis function) no slo es
factible sino que tiene un promisorio potencial frente a los mtodos
tradicionales.
En este Artculo no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
LAM, S., PETRI, L. y SMITH, A. (2000) en su Artculo Prediction and
optimization of a ceramic casting process using a hierarchical hybrid system of
neural networks anf fuzzy logic, es una investigacin que describe un sistema
hbrido que integra lgica difusa, redes neuronales y optimizacin algortmica
para usarlo en la industria cermica. Un mdulo de prediccin estima dos
mtricas de piezas de fundicin deslizante (slip-cast) a travs de la ejecucin
de dos redes neuronales. Un algoritmo de mejora de procesos optimiza los
valores de un proceso controlable usando el mdulo de prediccin de la red
neuronal en la funcin objetivo. Un mdulo de sistema experto contiene una
jerarqua de dos reglas bsicas de lgica difusa. Las reglas bsicas prescriben
el tiempo de proceso adecuado a lneas de produccin individual dados
condiciones ambientales, caractersticas de molde y la prediccin de la red
neuronal. Este trabajo demuestra la aplicabilidad de nuevas tcnicas
computacionales para un proceso de manufactura tradicional y el sistema ha
sido implementado en una planta importante en EEUU.
En este Artculo no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
NASEREDDIN, M. y
de
13
14
Feigenbaum.
ISHIKAWA, 1986, sostiene que calidad es satisfacer los requerimientos del
cliente, que cumplir las normas es insuficiente. Indica que en el sentido
estrecho calidad significa la calidad del producto, pero en el sentido amplio,
significa calidad del trabajo, del servicio, de informacin, del proceso, de la
divisin, del personal, del sistema, de la empresa, de los objetivos, etc. calidad
total. Introduce el concepto de control total de calidad CTC, estilo japons, que
plantea que todas las divisiones y todos los empelados deben participar en el
estudio y la promocin del control de calidad. Con relacin a los mtodos
estadsticos plantea el uso de los mtodos estadsticos elementales,
intermedios y avanzados. En el nivel intermedio considera a los mtodos de
disear experimentos; y en el nivel avanzado incluye los mtodos avanzados
de disear experimentos, anlisis de multivariables y diversos mtodos de
investigacin de operaciones.
15
APORTES DE ISHIKAWA
CONTROL TOTAL DE CALIDAD
CRCULOS DE CALIDAD
DIAGRAMA DE ISHIKAWA
CALIDAD LA DA EL CLIENTE
ACTUAR
PLANEAR
VERIFICAR
HACER
16
diseos
factoriales
fraccionales,
mtodos
Taguchi
ETAPAS DE LA CALIDAD
INSPECCIN
CONTROL DE
CALIDAD DEL
PROCESOS
DISEO
17
18
DISEO DE EXPERIMENTOS
PERMITE IDENTIFICAR
VALORES DE LOS FACTORES
FACTORES DE VARIABILIDAD
PARA
SATISFACER
LOS
CLIENTES
mediante el modelo
estadstico lineal:
Yij i ij; ; i 1,2,...a; j 1,2,...n
donde YIJ es la ijtratamientos llamado media global, j es un parmetro nico para el i-simo
tratamiento llamado efecto del tratamiento i-simo y ij es la componente
aleatoria del error. El objetivo es probar hiptesis apropiadas con respecto a
los efectos del tratamiento y hacer una estimacin de ellos. En este caso el
19
de Suma
Variacin
de Grados
Cuadrados
de
Media
de Fo
Cuadrados
Libertad
SSTRATAMIENTOS A 1
Entre
M STRATAMIENTOS Fo =
tratamientos
Error(
M STRATAMIENTOS
dentro SSE
N-a
M SE
M SE
de
tratamientos)
Total
SST
N-1
Donde:
SSTRATAMIENTOS = Suma de Cuadrados de Tratamientos
SSE = Suma de Cuadrados del Error
SST = Suma de Cuadrados Total
M STRATAMIENTOS= Media de Cuadrados de Tratamientos
M SE = Media de Cuadrados del Error
N = Nmero total de observaciones = an
a = Nmero de tratamientos
n = Nmero de observaciones por tratamiento
Para los casos de dos o ms factores se utiliza la misma tabla para el clculo
de anlisis de variancia, slo que se adiciona el ajuste respectivo para los
clculos segn el nmero de factores.
Sobre los diseos factoriales fraccionales y la mejora de la calidad:
(MONTGOMERY, D. 2004; KUEHL, R., 2001; PRAT, A., TORT MARTORELL,
X., GRIMA, P. y POZUETA, L., 1999; LAWSON, J. ,MADRIGAL, J. y ERJAVEC,
J.,1992)
20
-1
-1
-1
-1
-1
-1
-1
-1
-1
-1
-1
-1
medida. Pero no fue hasta 1980 en que sus mtodos se empiezan a divulgar
en EE.UU. con la publicacin de una serie de libros sobre Ingeniera de
Calidad y Mtodos de Taguchi.
Los mtodos de Taguchi se basan en el empleo de la funcin de prdida y en
la utilizacin de matrices de diseo ortogonales para llevar a cabo los
experimentos, as como en el posterior diagnstico mediante el anlisis de las
medias.
22
Prdida
Caracterstica de Calidad
m
Valor objetivo
23
Factores
Resultados
30
32
41
45
Nivel 1
31
35.5
37.5
Nivel 2
43
38.5
36.5
Por ejemplo, para el factor A, nivel 1: (30+32)/2 = 31. Para el factor A, nivel 2:
(41+45)/2 = 43
La mejor combinacin es factor A nivel 2, factor B a nivel 2 y factor C a nivel
1.
24
y f ( x1 , x2 )
donde
f ( x1 , x2 )
se le llama superficie de respuesta.
En la mayora de problemas de MSR se desconoce la forma de la relacin
entre la respuesta y las variables independientes. Por ello, el primer paso es
determinar una aproximacin apropiada a la relacin funcional real entre la
variable dependiente y las variables independientes. Por lo general se emplea
un polinomio de orden bajo sobre alguna regin de las variables
independientes. Si la respuesta es descrita adecuadamente por una funcin
lineal de las variables independientes, la funcin de aproximacin es el modelo
de primer orden:
y 0 1 x1 2 x2 ... k xk
Cuando existe curvatura en el sistema se requiere usar un modelo de segundo
orden:
k
i 1
i 1
y 0 i xi ii xi2
i
x x j ,,,i j
ij i
25
y 0 i xi
i 1
26
i 1
i 1
y 0 i xi ii xi2
i
x x j ,,,i j
ij i
y / x1 y / x2 ... y / xk 0 .
este
punto,
por
ejemplo,
donde:
x1
x
x 2
.
xk
b 2
.
k
11 , 12 / 2,..., 1k / 2
B ___ 22 ,......, 2 k / 2
simtrica ___
kk
27
28
29
30
31
32
SISTEMAS EXPERTOS
RECIBEN
SOBRE UN DOMINIO
APLICAN
TIENEN
UNA
LGICA
LA LGICA A LOS
DE CONOCIMIENTOS
ANLISIS
33
34
variables: las variables objeto y las variables estratgicas. Las variables objeto
son los posibles valores que hacen que la funcin objetivo alcance el ptimo
global y las variables estratgicas son los parmetros mediante los que se
gobierna el proceso evolutivo o, en otras palabras, las variables estratgicas
indican de qu manera las variables objeto son afectadas por la mutacin.
Haciendo una analoga ms precisa, el genotipo en las estrategias evolutivas
es el conjunto formado por las variables objeto y las variables estratgicas. Y
el fenotipo son las variables objeto, ya que conforme se da la variacin de
stas, se percibe un mejor o peor desempeo del individuo.
12) Algoritmos genticos (Genetic Algorithms)
En los aos setenta, de la mano de John Holland surgi una de las lneas ms
prometedoras de la inteligencia artificial, la de los algoritmos genticos. Son
llamados as porque se inspiran en la evolucin biolgica y su base genticomolecular.
Estos algoritmos hacen evolucionar una poblacin de individuos sometindola
a acciones aleatorias semejantes a las que actan en la evolucin biolgica
(mutaciones y recombinacin gentica), as como tambin a una seleccin de
acuerdo con algn criterio, en funcin del cual se decide cules son los
individuos ms adaptados, que sobreviven, y cules los menos aptos, que son
descartados.
Los algoritmos genticos forman parte de una familia denominada algoritmos
evolutivos, que incluye las Estrategias de evolucin, la Programacin evolutiva
y la Programacin gentica.
Sobre las Redes Neuronales Biolgicas
(ISASI, P. y GALVAN, I., 2004; MARTIN DEL BRIO, B., SANZ MOLINA A.
,2002)
La teora y modelado de redes neuronales est inspirada en la estructura y
funcionamiento de los sistemas nerviosos, donde la neurona es el elemento
fundamental.
En general, una neurona consta de un cuerpo celular ms o menos esfrico,
de 5 a 10 micras de dimetro, del que salen una rama principal, el axn, y
varias ramas ms cortas, llamadas dendritas.
35
Las seales que se utilizan son de dos tipos: elctrica y qumica. La seal
generada por la neurona y transportada a lo largo del axn es un impulso
elctrico, mientras que la seal que se transmite entre los terminales axnicos
de una neurona y las dendritas de la otra es de origen qumico.
Para establecer una similitud directa entre la actividad sinptica y la analoga
con las redes neuronales artificiales podemos considerar: Las seales que
llegan a la sinapsis son las entradas a la neurona; estas son ponderadas
(atenuadas o simplificadas) a travs de un parmetro, denominado peso
asociado a la sinapsis correspondiente. Estas seales de entrada pueden
excitar a la neurona (sinapsis con peso positivo) o inhibirla (peso negativo). El
efecto es la suma de las entradas ponderadas. Si la suma es igual o mayor
que el umbral de la neurona, entonces la neurona se activa (da salida). Esta
es una situacin de todo o nada; cada neurona se activa o no se activa. La
36
37
38
X . Cada
entrada se multiplica por un peso asociado W1, W2, ..., Wn para calcular la
respectiva sumatoria que es procesada por la funcin de activacin
respectiva y se obtienen las salidas correspondientes.
Entradas
X1
Salidas
W j1
X2
Wj2
Wjn
Func.A
Xn
Figura 8. Esquema de una Neurona Artificial (McCulloch-Pitts).
39
W11
X1W31
W12
W32
W21
X2
W22
Figura 9. Red Neuronal Artificial con una capa oculta.
40
W1
1
X1
F
Y
2
X1
W2
Wi Xi + )
i 1
donde:
F (s) = { 1 si s > 0
{ -1 en caso contrario
En la siguiente figura se presenta un perceptrn con R entradas y con funcin
de activacin (transferencia) hardlim (a=0, si n<0; a=1, si n>=0).
41
A.2. Aprendizaje
En el caso que se tengan 2 clases A y B: se introduce un patrn de los del
conjunto de aprendizaje, perteneciente, por ejemplo a la clase A. Se obtiene la
salida que genera la red para dicho patrn. Si la salida producida es 1, la
respuesta de la red para dicho patrn es correcta y no se realizar ninguna
accin. Si la salida es 1, la respuesta es incorrecta; la red categoriza el
patrn como de la clase B. Este es un error de clasificacin y es en este caso
cuando se produce el aprendizaje: se modifican los valores de los pesos. Si la
salida es inferior a la que se debera haber obtenido, los pesos son
incrementados para que en la prxima presentacin del mismo patrn pueda
42
y =
w x
i 1
43
B.2. Aprendizaje
El aprendizaje en este caso incluye la diferencia entre el valor real producido
en la capa de salida
E=
E
p 1
p 1
(S p - y ) 2
E p
w j
w j
y p w j
44
Como:
y p
E p
x j .................... y.................... p ( S p y p )
w j
y
(s p y p ) x j
45
W11
X1W31
W12
W32
W21
X2
W22
Figura 15: Perceptrn con una capa oculta de dos neuronas.
Figura 16: Perceptrn Multicapa, con capa de entrada ms tres capas (Hagan, et al)
46
C.2. Aprendizaje
Al igual que la Red Adaline toma la Regla LMS (Mnimos Cuadrados). Se
busca minimizar el error; es decir::
E2Esy2
Minimizando mediante la regla del descenso del gradiente, mediante una
sucesiva minimizacin de los errores para cada patrn, e(n), en lugar de
minimizar el error total. Luego cada w se modifica para cada patrn de entrada
n de acuerdo con la siguiente ley de aprendizaje:
pwj
e(n)
w
Figura 17: Perceptrn Multicapa, con capa oculta tansig y capa de salida purelin
con aprendizaje Backpropagation (Hagan, et al)
47
j 1
nc 1
k 1
i 1
a x
1
i
c 1 c 1
c
ai = f( w ji a j ui ) para i = 1,2,..., n c y c = 2,3,, C-1
c
j 1
C
i
nC 1
e(n) =
(s (n) y (n))
i
i 1
siendo Y(n) = ( y1 (n),..., y nC (n)) y S(n) = ( si (n),..., s nC (n)) los vectores de salidas
de la red y salidas deseadas para el patrn n, respectivamente.
4) Se aplica la regla delta generalizada para modificar los pesos y umbrales de
la red. Para ello se siguen los siguientes pasos:
4.1.) Se calcula los valores de para todas las neuronas de la capa de salida
utilizando la ecuacin:
nC 1
j 1
nc 1
k 1
i 1
49
E = 1/N
por la red para el patrn (entrada) n. Dicho error tambin recibe el nombre de
error de entrenamiento, pues se calcula utilizando los patrones de
entrenamiento.
7) Se repiten los pasos 2,3,4,5 y 6 hasta alcanzar un mnimo del error de
entrenamiento, para lo cual se realizan m ciclos de aprendizaje.
50
Nombre
Gradiente
Caracterstica
con Al gradiente se agrega el momentum, con valor
Momentum traingd
entre 0 y 1.
momentum traingdx
Gradiente Conjugado
Quasi Newton
Levenberg Marquardt
51
del espacio de patrones de entrada. Este carcter local viene dado por el uso
de las llamadas funciones de base radial, generalmente la funcin gausiana,
como funciones de activacin. Las neuronas de la capa de salida de las redes
de base radial simplemente realizan una combinacin lineal de las
activaciones de las neuronas ocultas.
Las redes neuronales de base radial estn formadas por tres capas de
neuronas, una de entrada, una nica oculta y una de salida.
La capa de entrada la componen un conjunto de neuronas que reciben las
seales del exterior, transmitindolas a la siguiente capa sin realizar ningn
procesado sobre dichas seales. Las neuronas de la capa oculta reciben las
seales de la capa de entrada y realizan una transformacin local y no lineal
sobre dichas seales. Este carcter local es lo que las diferencia del
perceptrn multicapa. Esta es la nica que incluye componentes no lineales en
las redes de base radial. La capa de salida realiza una combinacin lineal de
las activaciones de las neuronas ocultas, que acta adems como salida de la
red. Las conexiones de la capa de entrada a la capa oculta no llevan asociado
ningn peso, mientras que las conexiones de la capa oculta a la capa de
salida s llevan asociado un peso. Slo las neuronas de la capa de salida
poseen umbral, que tambin se suele tratar como una conexin ms de la
neurona cuya entrada es constante e igual a 1.
52
53
w1,1,c1,b1,1
X1
h(.)
w2,1
b2
X2
w1,2,c2,,b1,2
w2,2
h(.)
w2,3
Xm
xm
h(.)
w1,3,c3,b1,3
Donde:
X= un vector de entrada
w1,i y w2,j=vector peso de la neurona i de la capa oculta y j de la capa de
salida.
b1,i y b2,j =umbrales de de la neurona i de la capa oculta y j de la capa de
salida.
ui= centros de las neuronas ocultas
Di2 ( x u i ) T ( x u i )
x y u = vectores columna.
T = indica la transpuesta del vector.
Los pesos de cada neurona de capa oculta son asignados desde los valores
de un vector de entrenamiento de entrada.
La neurona de salida produce la suma de pesos lineal de estos:
y hi wi , j bij
i, j
54
D.2. Aprendizaje.
Se pueden dar dos casos: Hbrido y totalmente supervisado.
D.2.1. Aprendizaje Hbrido.
En el caso hbrido: se tiene la primera fase no supervisada y la segunda
supervisada.
Fase No Supervisada:
Los centros de las funciones de base radial se determinan mediante un
algoritmo clasificacin no supervisado que permita dividir el espacio de
patrones de entrada en clases. El nmero de clases es el nmero de neuronas
ocultas en la red de base radial. Se puede utilizar el algoritmo de K medias, o
cualquier otro, e incluso los mapas autoorganizados de Kohonen.
Las amplitudes o desviaciones se calcular de manera que cada neurona oculta
se active de una regin del espacio de entrada y de manera que cada neurona
oculta se active en una regin del espacio de entrada y de manera que el
solapamiento de las zonas de activacin de una neurona a otra sea lo ms
ligero posible, para supervisar as la interpolacin. Entre otras, se pueden usar
las heursticas de los vecinos ms cercanos, la media uniforme de las
distancias eucldeas del centro Ci a los p centros ms cercanos, la media
geomtrica de las distancias centro Ci a los p centro ms cercanos incluso
valores determinados que permitan un valor de salida predeterminado luego e
aplicar la funcin de base radial.
Fase Supervisada.
Se busca minimizar el error entre el valor de salida de al red y el de la salida
deseada que corresponde a su respectivo par p de entrada. Para ello se
puede seguir el mtodo de mnimos cuadrados o el de la seudoinversa.
Mnimos Cuadrados:
Las ecuaciones que se obtienen para ser aplicadas son:
W G S (G t G) 1 G t S
55
e(n) =
(s
K 1
(n) y k (n)) 2
donde Y(n) = (y 1 (n),..., y r (n)) y S(n) = (s 1 (n),..., s r (n)) los vectores de salida
de la red y salida deseada para el patrn de entrada X(n), respectivamente.
4) Se modifican los pesos, umbrales, centros y amplitudes de la red utilizando
las ecuaciones:
pesos:
ik
umbrales:
( x j cij )
k 1
d i2
56
amplitudes:
r
X ( n) C i
d i3
Para i = 1,..., m
5) Se repiten los pasos 2, 3 y 4 para todos los patrones de entrenamiento.
6) Se repiten los pasos 2, 3, 4 y 5 hasta conseguir la convergencia, es decir,
hasta que la suma de los errores para todos los patrones se estabilice, segn
la ecuacin:
N
E = 1/N
e( n )
n 1
57
E[ y / x]
yf ( x, y )dy
f ( x, y )dy
donde:
y = salida del estimador.
x= vector de entrada del estimador
E[y/x] = el valor esperado de salida, dado el vector de entrada x.
f(x,y) = la unin de la funcin de la funcin de densidad de probabilidad
(pdf) de x e y.
GRNN es; en esencia, un mtodo para estimar f(x,y) dado el conjunto de
entrenamiento. Debido a que la pdf es derivada a partir de los datos sin
preconcepciones sobre su forma, el sistema es perfectamente general. No hay
problema si las funciones estn compuestas de mltiples regiones no
Gaussianas no un idas en cualquier nmero e dimensiones, tanto como de
distribuciones ms simples.
Specht muestra que yj, el valor de la funcin, es estimado ptimamente como
sigue:
58
i 1
i 1
y j hi wij / hi
Donde:
Wij = la salida objetivo (deseada) correspondiente al vector entrenamiento
de entrada xi y salida yj
hi exp[ Di2 / 2 2 )], la salida de una neurona de capa oculta.
Di2 ( x u i ) T ( x u i ), la distancia al cuadrado entre el vector input x y el
vector de entrenamiento u.
x = vector de entrada (un vector columna)
ui = vector de entrenamiento i, el centro de la neurona i (un vector
columna).
= una constante controladora del tamao de la regin respectiva.
Otras formas de mejorar el desempeo.
La Funcin de distancia Euclidiana, otras veces referida como la normal L 2,
es solo una de un gran nmero de funciones que pueden ser usadas. Specht
(1991) reporta que la L1 o (city block norm) bloque normal de vecindad que
tambin satisface el criterio de consistencia de Parzen puede ser usado sin
cambios significativos en los resultados, pero con una gran reduccin en los
clculos requeridos. En este caso la funcin de distancia es calculada como
sigue:
Di1 xk k
k
con matriz de
59
Se puede construir una Red de Base Radial de Diseo Exacto, que produzca
error cero sobre los vectores de entrenamiento. Es decir con datos de entrada
en pares p, t (input y output) y con una determinada amplitud se puede
obtener una red con pesos y umbrales cuya salida sea exactamente t cuando
la entrada es p. Para ello se tienen que crear tantas neuronas ocultas con
funcin radial como vectores input se tiene en p. En este caso se establece
como umbral de la capa oculta 0.8326/amplitud, y los pesos de la capa oculta
a la de salida y los umbrales de la capa de salida se determinan mediante la
expresin:
[W {2,1}b{2}] * [ A{1}; ones ] T
60
61
62
S2
S1
S3
S4
La red de Hopfield est formada por n neuronas, cada una conectada a todas
las dems salvo a ella misma, como se muestra en la Figura 22. La matriz de
conexiones de la red de Hopfield es una matriz W = ( wij ) de orden n x n,
donde
ij
ij
ij
ij
= 0,
s (t 1) sgn( v (t 1))
i
63
1 si vi (t 1)0
y vi (t 1) es el nivel de activacin que acta sobre la neurona i, calculado
como:
n
vi (t 1) w ji s j (t ) ui ; para i = 1,2,..., n
j 1
s(t 1) s1 (t 1) , s2 (t 1),..., sn (t 1)
64
w ji x j (k )xi (k ) i j
k 1
x ( x1 , x2 ,..., xn )
Sea
procedimiento :
Se inicializan los estados de las n neuronas de la red utilizando dicho patrn x,
es decir :
Si(0) = Xi para i = 1,2,,n
Se calculan los estados de la red en los siguientes instantes de tiempo
utilizando las ecuaciones de s i (t 1) , sng vi (t 1) y de
vi (t 1)
hasta
s (t 1) s (t ) i 1,2,..., n
i
65
1
1
1
wij xi x j u i si s k wkj s j s k wik si u k s k
2 ik j k
2
2
ik
j
I
siguiente expresin:
1
1
E s k wkj s j s k wik si u k s k
2
2
j
j
E s k w jk s j u k
j
Por tanto, cuando los estados de la red cambian siguiendo las ecuaciones de
s i (t 1) , sgn vi (t 1) y de vi (t 1) , E es siempre negativo, por lo que la
funcin E es montona decreciente respecto a los estados de la red. De este
modo, el punto estable de la red de Hopfield se corresponde con un mnimo
local de la funcin energa. De hecho, la manera de modificar los estados de
la red en la fase de recuperacin (ecuaciones de s i (t 1) , sgn vi (t 1) y de
66
conjunto de los datos de entrada es menor que el mximo que podra ser
soportado por el mismo canal; esa diferencia es la redundancia.
Regla de Hebb
Hebb (1949) postul un sencillo pero potente mecanismo de regulacin de las
conexiones neuronales, que constituy la base de las reglas de aprendizaje
que ms tarde se desarrollaran. La regla de Hebb, en su versin ms
67
desarrollo o cambio
de
68
F2
F1
Figura 23. Arquitectura de una red de aprendizaje competitivo
F.2. Aprendizaje
Aprendizaje competitivo. Es un tipo de aprendizaje no supervisado que sirve
de base para varios modelos de Redes de Neuronas Artificiales. El objetivo
de estas redes es categorizar los datos de entrada. As los datos parecidos
69
70
71
72
73
2002; HILERA J. y MARTINEZ V., 2000; HAGAN, M., DEMUTH, H., VALE,
M.,1996;
HAYKIN, S.,1994 )
Empresa
Medio Ambiente
Finanzas
Identificacin de falsificaciones.
Interpretacin de firmas.
Manufactura
74
Inspeccin de calidad.
Filtrado de seales.
Medicina
Monitorizacin en ciruga.
Lectoras de Rayos X.
Militares
Sobre software
(PRESSMAN, R.;2002)
El software son las instrucciones electrnicas que van a indicar al ordenador
que es lo que tiene que hacer. Tambin se puede decir que son los programas
usados para dirigir las funciones de un sistema de computacin o un
hardware.
Tipos :
a.- Sistema operativo: es el software que controla la ejecucin de todas las
aplicaciones y de los programas de software de sistema.
b.- Programas de ampliacin: o tambin llamado software de aplicacin; es el
software diseado y escrito para realizar una tarea especifica, ya sea
personal, o de procesamiento. Aqu se incluyen las bases de datos,
tratamientos de textos, hojas electrnicas, grficas, comunicaciones, etc..
c.- Lenguajes de programacin: son las herramientas empleadas por el
usuario para desarrollar programas, que luego van ha ser ejecutados por el
ordenador.
75
76
las
necesidades.
Esta
actividad
se
debe
dividir
en:
77
78
NeuroSolutions de NeuroDimension
NeuroSolutions es una herramienta grfica para el desarrollo de redes
neuronales, que combina una interfaz de diseo modular y basada en iconos
con la implementacin de procedimientos de aprendizaje avanzados y
optimizacin gentica. El resultado es un entorno prcticamente ilimitado para
el diseo de redes neuronales para investigacin y para la resolucin de
problemas reales. Permite trabajar con arquitecturas de Pereptrn Multicapa,
Redes de Elman y Jordan, Mapas Auto organizados, Redes de Base radial,
Redes Probabilsticas (PNN), Redes de regresin general gRAN, Redes Neuro
Fuzzy (CANFIS), Redes con LVQ, Redes de Hopfield, Redes Recurrentes.
Tiene una interfase de usuario muy amigable que permite fcilmente realizar
trabajos con redes neuronales, pero no permite programar, ni entrar a la lgica
de sus programas.
MATLAB de Mathworks
Es un entorno de computacin y desarrollo de aplicaciones totalmente
integrado orientado para llevar a cabo proyectos en donde se encuentren
implicados elevados clculos matemticos y la visualizacin grfica de los
mismos. MATLAB integra anlisis numrico, clculo matricial, proceso de
seal y visualizacin grfica en un entorno completo donde los problemas y
sus soluciones son expresados del mismo modo en que se escribiran
tradicionalmente, sin necesidad de hacer uso de la programacin tradicional.
Pero tambin permite hacer programacin si se requiere.
MATLAB dispone tambin en la actualidad de un amplio abanico de
programas de apoyo especializados, denominados Toolboxes, que extienden
significativamente el nmero de funciones incorporadas en el programa
principal. Estos Toolboxes cubren en la actualidad prcticamente casi todas
las reas principales en el mundo de la ingeniera y la simulacin, destacando
entre ellos los Toolboxes de proceso de imgenes, seal, control robusto,
79
SPRIN N de AERN
Principalmente hace predicciones en mercados de capitales mediante redes
neuronales.
El programa SprinN permite la utilizacin de diversos indicadores tcnicos. La
utilidad de los indicadores tcnicos radica en la posibilidad de incluir en los
proyectos o redes neuronales series derivadas de la original a travs de las
variables. Hace predicciones , entre otros de ndices burstiles, valores,
futuros, opciones, acciones, fondos de inversin, tipos de inters, materias
primas, mercados de divisas, renta variable, mercados derivados, ... cualquier
activo financiero en cualquier mercado de capitales. Utiliza tcnicas de
Inteligencia Artificial, redes neuronales Sistema dinmico que adapta su
arquitectura al problema planteado, el motor de prediccin, desarrollado por
AERN
aplicaciones
empresariales
con
redes
neuronales,
adapta
80
desviacin
mvil
exponencial,
momento,
incremento,
SprinN
Figura 28. Logotipo SprinN
81
82
Una RNA es
83
84
1.4.
Marco Filosfico
ANTECEDENTES
Los filsofos griegos Platn, Scrates y Aristteles, se consideran como los
precursores sobre la Inteligencia Artificial; es as que entre sus diversos
escritos se pueden citar:
Platn que cita un dilogo en el que Scrates le pregunta a Eutidemo (359
A.C.) Deseara saber cul es la caracterstica de la piedad que hace que una
accin se pueda considerar como pa... y as la observe y me sirva de norma
para juzgar tus acciones y las de otros. All Scrates deseaba un algoritmo
que permita diferenciar entre la piedad e impiedad. Por su parte Aristteles
concibi un sistema informal de silogismos para el razonamiento adecuado y
que no todas las partes de la mente estaban gobernadas por procesos lgicos.
Es as que en un inicio se considera la existencia de un conjunto de reglas
sobre el funcionamiento de la mente.
Posteriormente Descartes (1596-1650) introduce la diferencia entre mente y
materia. Asimismo, plantea que si la mente fuera puramente fsica no cabra el
libre albedro. Para superar este problema introduce la nocin de dualismo:
que existe algo aparte de la mente que est al margen de la influencia de las
leyes fsicas: el alma o espritu.
Luego el materialismo de Leibnitz (1646-1716) considera que todo: mente y
cerebro, funciona sujeto a leyes fsicas.
Nuevos filsofos ms actuales, como Lewis, Putman, Rorty y otros sostienen
una posicin intermedia, con variantes, que sostiene que la mente tiene una
base fsica, pero rechaza que esta pueda explicarse reducindola a un mero
proceso fsico.
Por otra parte, a lo largo de los ltimos aos la filosofa configur una tradicin
de que la mente era un dispositivo fsico que bsicamente funcionaba por
razonamiento manejando el conocimiento en l depositado. Entonces, surge el
problema sobre la fuente de conocimiento. El movimiento emprico, iniciado
por Bacon (1561-1626) y Locke (1632-1704) sostiene Nada existe en la
mente que no haya pasado antes por los sentidos. Hume (1711-1776) en su
Tratado de la Naturaleza Humana propone el principio de la induccin: las
reglas generales se obtienen por contacto con repetidas asociaciones entre
85
86
87
88
correspondencia
explica
conductas
verbales
de
diferenciar
que
de
inteligencia
(Prueba
de
Turing);
programndose
una
89
90
que nunca nos ser posible conocer su verdadera validez; asimismo, sostiene
que nunca ser posible que la percepcin matemtica sea algortmica. Si bien
es cierto Penrose cuestiona que la percepcin Godeliana sea formalizable, ello
no lo explica.
Uno de los principales aportes de Penrose es sostener que nada de nuestra
actual comprensin fsica del funcionamiento del cerebro podra indicar que
cuenta con aspectos no algortmicos; es decir, la simulacin de su
funcionamiento mediante una computadora, en principio es posible de acuerdo
con la fsica moderna. Aunque concluye con el comentario que el cerebro
debe utilizar principios fsicos que an no se han descubierto, que seran no
algortmicos.
92
las salidas correctas, por lo tanto, no puede operar de manera autnoma sin la
ayuda de un entrenador humano.
94
sigue las
ordenar los
95
emergente
de
sistemas de
neuronas
Searle, por otro lado, sostiene que es posible que existan otros medios
capaces de albergar la conciencia, entre ellos el silicio; que sera un sistema
consciente en virtud de las propiedades fsicas del medio y no del programa
que estuviera ejecutndose.
96
97
98
99
100
La investigacin cientfica:
Hay tres focos normales para la investigacin cientfica fctica: hechos que el
paradigma ha demostrado que son particularmente reveladores de la
naturaleza de las cosas; predicciones de la teora del paradigma; y el trabajo
para articular la teora del paradigma, resolviendo algunas de sus
ambigedades residuales.
Crisis de paradigmas:
La transicin de un paradigma en crisis a otro nuevo del que pueda surgir una
nueva tradicin de ciencia normal, est lejos de ser un proceso de
acumulacin, al que se llegue por medio de una articulacin o una ampliacin
del antiguo paradigma. Es ms bien una reconstruccin del campo, a partir de
nuevos
fundamentos,
reconstruccin
que
cambia
algunas
de
las
101
C. Karl Popper, en su vasta obra, la cual ha sido compilada por David Miller,
en
104
la
posibilidad
de
derivacin,
la
compatibilidad
la
incompatibilidad.
D.
investigacin genuino
conjeturas
que
tengan
ms
contenido
emprico
que
sus
predecesoras.
105
106
107
108
109
110
evolucionistas
tienen
problemas,
por
ejemplo,
no
pueden
considerarse definitivas.
111
112
CAPTULO II.
PLANTEAMIENTO METODOLGICO
2.2. Objetivo
Desarrollar una Red Neuronal Artificial especfica para la mejora de la calidad
de diseo de procesos, que d mejores resultados que los obtenidos con los
diseos experimentales y las RNA ya existentes, para los casos que se trabaje
con varias variables dependientes e independientes y en los que sus
relaciones no sean lineales.
113
gruesa
114
Metodologa Empleada.
La metodologa sigue los pasos necesarios para demostrar la aceptacin o
rechazo de la hiptesis planteada. Para ello luego de obtener y analizar la
informacin respectiva, se trabaja con la variable independiente Redes
Neuronales Artificiales RNA. Se analizan las RNA existentes y sus ventajas
para aplicar en la mejora de calidad de procesos, con base a dicha
informacin se desarrolla una RNA para aplicar en los anlisis de datos para la
mejora de la calidad de procesos, la misma que es evaluada con relacin a
otras RNA y las tcnicas estadsticas tradicionales de mejora de la calidad de
procesos (anlisis estadsticos), a fin de evaluar su desempeo a travs del
error de sus resultados.
El estudio de las RNA se efectu con base a indicadores como son nmero de
variables de entrada, nmero de neuronas y de capas, funciones de
activacin, pesos, umbrales y nmero de variables de salida.
Las RNA seleccionadas fueron las de Funcin de Base Radial, de Diseo
Exacto, con Distancia Eucldea y con Distancia de Mahalanobis.
La Red desarrollada fue del tipo de Funcin de Base radial, del tipo de Diseo
Exacto con Distancia de Mahalanobis (aplica el algoritmo de Mahalanobis para
el clculo de las distancias entre los centros y los vectores de entrada).
Se seleccionaron siete experimentos de autores y publicaciones reconocidas a
nivel internacional en el campo de la calidad, en los cuales se utiliza el diseo
de experimentos para la mejora de la calidad de procesos; y se aplica a los
mismos
las
RNA
tanto
de
Perceptrn
Multicapa
con
aprendizaje
115
116
117
CAPTULO III
DESARROLLO DE LA RED, SU APLICACIN Y RESULTADOS
OBTENIDOS
3.1. Anlisis de las caractersticas de las Arquitecturas de Redes Neuronales y
sus posibilidades de aplicar para la Mejora de la Calidad de procesos.
118
Tabla 10. Anlisis de las caractersticas de las Redes Neuronales Perceptrn, Adaline y Pereptrn Multicapa.
A.1.
Arqui
tectura
A.2.
Apren
dizaje
Perceptrn
Adaline
Perceptrn Multicapa
Tiene las posibilidades de las capas ocultas en una red.
As se puede resolver el problema XOR que no puede
resolver el Perceptrn simple debido a la capa oculta que
se aade. Es un perceptrn multicapa que utiliza el
algoritmo backpropagation para el aprendizaje
diferencia: ( s y )
4.Para todos los pesos, multiplicar dicha
diferencia por la entrada correspondiente, y
ponderarla por una tasa de ap
5.Modificar el peso restando del valor
antiguo la cantidad obtenida en 4
Si no se ha cumplido el criterio de
convergencia, regresar a 2; si se han
acabado todos lo patrones, empezar de
nuevo a introducir patrones.
p
119
E = 1/N
e( n )
n 1
A3.
Limita
ciones
/Venta
jas
de
120
Tabla 11. Anlisis de las caractersticas de las Redes Neuronales Base Radial, Recurrentes y De Aprendizaje no Supervisado.
R.N. Recurrentes
RN De Aprendizaje no Supervisado
121
A.2.
Apren
dizaje
Tienen
dos
fases
de
operacin,
almacenamiento y recuperacin. Fase de
almacenamiento: se van a determinar los
valores que deben tomar los pesos de la red
para almacenar un conjunto de patrones, y en
la fase de recuperacin describe el
mecanismo para recuperar la informacin
almacenada a
partir de informacin
incompleta.
De acuerdo con la regla de Hebb para
almacenar patrones, el peso de la conexin
de la neurona j a la neurona i en la red de
Hopfield viene dado por :
p
w ji x j (k )xi (k ) i j
k 1
Fase de recuperacin
122
ecuacin:
Sea
r
e(n) =
(s
K 1
(n) y k (n)) 2
E = 1/N
e( n )
n 1
desconocidos.
Cuando se recibe una entrada en la capa F!, sta se
propaga hasta la capa F2, cuyas neuronas tendrn un
valor de activacin proporcional al valor de la entrada
propagada. Esta proporcin vendr dada por los valores de
la conexiones entre F1 y F2 (W ij ). Una vez que las
neuronas de F2 han sido activadas por la capa F1, sta
deja de actuar, y la seal es propagada, de forma
asncrona, a travs de la capa F2, de manera que todas las
neuronas tratarn de impedir que las dems tengan un
valor de activacin alto,
gracias a las conexiones
inhibitorias con todas sus vecinas; a la vez que intentarn
tener ellas mismas un valor de activacin alto, gracias a las
conexiones reflexivas excitatorias.
El algoritmo que describe el funcionamiento de la red es el
siguiente :
1.Se recibe el estmulo en F1.
2.Se propaga la seal hasta F2 y se calcula el valor de
excitacin para cada neurona de F2.
3.Se inhiben las conexiones entre la capa F1 y la F2.
4.Se propaga la seal por la capa F2, calculndose los
nuevos valores de excitacin de las neuronas.
Cuando slo haya una clula (clula ganadora) con un
valor de salida mayor que cero, ir al paso 5.
4.Ir al paso 3.
5. Restablecer las conexiones entre las capas F1 y F2
Calcular los nuevos valores para los pesos de las
conexiones entre la capa F1 y la clula neurona ganadora
en el paso 3
La capa F2 se ha estabilizado cuando todas las salidas de
las neuronas tienen un valor de cero, excepto una, que
ser la que al principio ha recibido la entrada ms alta de la
capa F1, ya que ser la que habr inhibido en mayor grado
al resto y tambin habr reforzado a s misma en mayor
grado.
Las neuronas de la capa F2 compiten por la entrada, de
123
A3.
Limita
ciones
/Venta
jas
En conclusin de lo revisado sobre las principales redes neuronales artificiales que en la actualidad se conocen, son el Perceptrn
Multicapa con aprendizaje de backpropagation, y las Redes Neuronales de Base Radial las ms adecuadas para desarrollar una
red neuronal artificial especfica para la mejora de la calidad de diseo de procesos, que d mejores resultados que los obtenidos
con los diseos experimentales y las RNA ya existentes, para los casos que se trabaje con varias variables dependientes e
independientes y en los que sus relaciones no sean lineales.
124
125
Cada criterio se calific con tres niveles: 3 para lo mejor, 2 para nivel
intermedio, 1 para nivel reducido y 0 para no aplicacin.
SPRINN
3
1
1
1
1
1
Como resultado de la evaluacin realizada se seleccion el Shell MatlabNeural Network Tooolbox; versin 7.2 de Matlab (R2006a), con el toolbox:
Neural networks; especialmente desarrollado por Mathworks para el trabajo con
redes neuronales.
3.2.2 Desarrollo del Programa de computacin.
a. REQUISITOS DEL PROGRAMA.
La RNA desarrollada en el presente trabajo, es una variacin de las RNA de
base Radial, donde la distancia Eucldea es modificada mediante el clculo de
la distancia de Mahalanobis. Donde se introduce el factor K en lugar de la
desviacin d. Siendo K la inversa de la matriz de la covariancia de los vectores
de entrada. Se trata de un ajuste al clculo de las distancias con el objeto de
obtener mejores resultados. Resultados que expresan mejor la relacin entre
las entradas y las salidas.
126
(r ) e
( x c ) 2
2 i2
Se utiliza la expresin:
( x c )T K ( x c )
(r ) e
donde K es:
K=[E(x-m)(x-m)T]-1
m= el vector medio calculado considerando todos los vectores de entrada.
T= smbolo de la transpuesta de la matriz.
C=los centros de la funcin de base radial.
K=Distancia de Mahalanobis.
Por tanto el programa desarrollado calcula los parmetros de la Red con base
a la Distancia de Mahalanobis, y entrenada la Red permite simular el valor de
salida, dado un valor de entrada.
b. BASE DE CONOCIMIENTO.
b.1. Arquitectura de la RNA de Funcin de Base Radial, seleccionada:
Nmero de capas: 3, una de entrada, una oculta y una de salida.
Nmero de neuronas de la capa de entrada: igual al nmero de vectores de
entrada.
Nmero de neuronas de la capa oculta: igual al nmero de neuronas de
entrada.
Nmero de neuronas de la capa de salida: igual al nmero de vectores de
salida.
Neuronas de la capa de entrada con vectores de entrada.
127
pesos
W1=x1
Capa de
.entrada
Capa oculta
Distancia
Funcin
centros
radial
b1 Umbrales: amplitud
Capa
oculta, radial
Centros, Dist.
Pesos
W2
b2:umbrales
Capa de
salida, lineal
Pesos
Entrada 1
Entrada 2
Salida 1
1
2
2
.o o o
.o o o
.o o o
Entrada n
Salida
Sumatoria
Salida 2
Salida p
Teniendo en cuenta los datos entrada si son presentados como vector o como
matriz. En el primer caso se utiliza el programa 14 r y en el segundo el 15 r.
INICIO
INGRESAR DATOS
DE ENTRADA
SON
UN
VECTO
NO
SI
APLICAR
PROGRAMA 14r.
FASES 1 Y 2
APLICAR
PROGRAMA 15r
FASES 1 Y 2
FIN
128
129
INICIO
P1.INGRESAR DATOS
P2.DETERMINAR DIMENSIONES
DE P Y T
FIN
130
PASO 9. CALCULAR UMBRALES B2. Calcular los valores del umbral de las
neuronas de la capa de salida b2.Con base a la matriz obtenida en el paso 7.
131
132
P1.INGRESAR DATOS
P2.DETERMINAR DIMENSIONES
DE PE y W1
P3: r
~=
FIN
FIN
133
134
%Paso 1.
[s,r] = size(w1);
[r2,q] = size(p);
%Paso 2.
if(r~=r2),error('matriz interna de dimensiones que no concuerdan.'),
end
%Paso 3.
m=sum(p)/q;
H=(p-m)*(p-m)';
K=pinv(H);
D=dist(w1,p);
Z=K*D;
a1=radbas(Z.*(b1*ones(1,q)));
ts=(w2*a1)+b2;
DATOS DE ENTRADA: W Y P.
function z = dist(w,p)
[S,R] = size(w);
[R2,Q] = size(p);
if (R ~= R2), error('Inner matrix dimensions do not
match.'),end
z = zeros(S,Q);
if (Q<S)
p = p';
copies = zeros(1,S);
for q=1:Q
z(:,q) = sum((w-p(q+copies,:)).^2,2);
end
else
w = w';
copies = zeros(1,Q);
for i=1:S
z(i,:) = sum((w(:,i+copies)-p).^2,1);
end
end
z = z.^0.5;
135
136
3 .
t
1.
6 .
137
COMO
MATRIZ.
138
INICIO
P1.INGRESAR DATOS
P2.DETERMINAR DIMENSIONES
DE P Y T
FIN
139
PASO 8 .Calcular los valores de los pesos de la capa oculta a la capa de salida
w2.Con base a la matriz obtenida en el paso anterior.
PASO 9. Calcular los valores del umbral de las neuronas de la capa de salida
b2.Con base a la matriz obtenida en el paso 7.
140
141
P1.INGRESAR DATOS
P2.DETERMINAR DIMENSIONES
DE PE y W1
P3: r
~=
FIN
FIN
142
143
144
75
75
40
40
40
75
75
75
40
40
40
45
45
45
45
45
45
25
25
25
25
25
25
235 235 235 235 235 235 235 235 235 235 235 235
45
45
45
25
25
25
25
25
25
25
25
25
25
25
25
25
25
25
10
10
10
10
25
45
45
45
10
10
25
25
Columns 13 through 24
75
75
75
40
40
40
75
75
75
40
40
40
45
45
45
45
45
45
25
25
25
25
25
25
145
205 205 205 205 205 205 205 205 205 205 205 205
45
45
45
10
10
10
25
3
25
3
10
25
25
25
25
25
45
10
25
25
25
25
3
10
25
25
25
25
25
45
45
25
25
146
147
Datos
Caso sobre clculo de parmetros deseados de un proceso.
Se presenta datos de ejemplo del artculo Modified Desirability Functions for
Multiple Response Optimization de Del Castillo, et al, 1996, publicado en el
Journal de Quality Technology, vol.28,N 3; que trata sobre parmetros para
una faja metlica transportadora para calentamiento y adhesin de conductores
de circuitos integrados en placas de plstico. El calentamiento se da en un
proceso continuo a travs de una corriente de aire caliente a temperatura (x1),
de la faja metlica a la temperatura (x2), y de un bloque de calentamiento a alta
temperatura (x3). Se busca obtener la placa de plstico con los circuitos
adheridos, pero las placas deben tener determinadas temperaturas. Si se
sobrepasa demasiado dichas temperaturas (valores objetivos) las placas se
pueden daar. Estas condiciones de temperatura deben alcanzar las placas en
diversos puntos (valores objetivos) son: Y1, Y2, Y3, Y4, Y5, Y6.
Los datos de entrada X y salida Y se presentan a continuacin en la tabla 14:
Tabla 14. Datos caso Diseo de Experimentos, Del Castillo, et al.
X1
40
120
40
120
40 120
40 120
80
80
80
80
80
80
X2
200
200
450
450
325 325
325 325
200
X3
250
250
250
250
150 150
350 350
150
Y1
139
140
184
210
182 170
175 180
132
Y2
103
125
151
176
130 130
151 152
108
Y3
110
126
133
169
122 122
153 154
103
Y4
110
117
147
199
134 134
143 152
111
Y5
113
114
140
169
118 118
146 150
101
Y6
126
131
147
171
115 115
164 171
101
148
80
Luego de trabajar los datos con la Red Desarrollada, con la Red Perceptrn
Multicapa con aprendizaje backpropagation y teniendo en cuenta lo obtenido
por Del Castillo, et al, se obtuvo los resultados que se presentan en la tabla 15.
Anlisis
Estadstico
4.2.2.
Multicapa
con Backpropagation
Tradicional, Del
Castilo, et al
Error
al
No hacen este
simular
la
clculo
de
96.86
40.30
24.31
666.00
entrada 1
Error
simulacin
global**
Red
Directa
3 capas;
3 capas;
RD. N capas;
15
c.entrada
neuronas
capa
de
entrada
neuronas
capa
oculta
oculta
RD N capas;
N
neuronas
Inversa
RI. N capas;
3 capas;
capa de salida
Red
3 capas;
salida
-
3 capas;
15
3 capas;
neuronas 6 neuronas c.entrada
149
neuronas
capa
c.entrada
de
neuronas
capa
entrada
oculta
RI. N capas;
N
neuronas
3 capas;
3 capas;
capa de salida
salida
Entradas
84.1500
70.0000
72.8493
optimizadas
450.0000
450.0000
469.2229
para
329.8000
350.0000
349.9482
valores
deseados
Salidas
com
186.9000
190.0000
189.0000
valores
173.0000
183.0000
171.3987
optimizados
170.1000
181.5000
171.5801
190.0000
185.5000
181.0353
170.9000
173.0000
163.6635
182.4000
177.0000
177.9065
150
151
152
Columns 8 through 14
180.0000 132.0000 206.0000 183.0000 181.0000 180.6667 180.6667
152.0000 108.0000 143.0000 141.0000 180.0000 141.6667 141.6667
154.0000 103.0000 138.0000 157.0000 184.0000 139.0000 139.0000
152.0000 111.0000 176.0000 131.0000 192.0000 158.0000 158.0000
150.0000 101.0000 141.0000 139.0000 175.0000 139.6667 139.6667
171.0000 101.0000 135.0000 160.0000 190.0000 147.3333 147.3333
Column 15
180.6667
141.6667
139.0000
158.0000
139.6667
147.3333
Lo cual comparado con la matriz de valores de t, permite obtener una suma de
errores al cuadrado entre en nmero de vectores de entrada t (15) igual a
24.31.
>>%Aplicando la red para el primer conjunto de valores de p, se obtiene:
Pe1=[40; 200; 250];
[ts]=simnewrbfcev15rr(w1,b1,w2,b2,pe1)
ts =
139.0000
103.0000
110.0000
110.0000
113.0000
126.0000
Lo cual equivale a un error de cero(0).
153
>> [w1,b1,w2,b2,K]=newrbfcev15r(t,p,sc)
>>%Simulacin, corrida con valores deseados
>> pe=[190;185;185;190;185;185];
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,pe)
>>%Obtencin de valores optimizados
>> ts
ts =
70.0000
450.0000
250.0000
>>%RED DIRECTA; volver a valores niciales de p y t.
>>%Construccin y Entrenamiento de Red
>> [w1,b1,w2,b2,K]=newrbfcev15r(p,t,sc)
>>% Simulacin, corrida con valores optimizados
>> pe=[70.0000; 450.0000; 250.0000];
>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,pe)
>> ts
ts =
190.0000
183.0000
181.5000
185.5000
173.0000
177.0000
Clculo del Error con valores deseados.
Comparando los valores deseados y los obtenidos con las nuevas entradas se
tiene la tabla 16.
154
Valores Obtenidos
Error
Valores
de
entrada, obtenidos
190
190.5000
0.0000
70.0000
185
183.0000
-2.0000
450.0000
185
181.5000
-3.5000
350.0000
190
185.5000
-4.5000
185
173.0000
-12.0000
185
177.0000
-8.000
-30.0*
156
157
Epoch
3000/3000,
MSE
0.219477/0,
Gradient
0.0824798/1e-010
TRAINGD, Maximum epoch reached, performance goal was not met.
>> net.trainParam.epochs=1000;
>> [net,tr]=train(net,ptr,ttr,[],[],[],test);
TRAINGD-calcgrad, Epoch 0/1000, MSE 0.219477/0, Gradient 0.0824798/1e010
TRAINGD-calcgrad, Epoch 1000/1000, MSE 0.15487/0, Gradient 0.077184/1e010
TRAINGD, Maximum epoch reached, performance goal was not met.
>>%Simulacin
>> an= sim(net,ptrans);
>> a=mapstd('reverse',an,ts);
>> for i=1:3
[m(i),b(i),r(i)]=postreg(p(i,:),t(i,:));
end
>> r
r=
0.4628
0.9306
0.9716
158
Ys =
72.8493
469.2229
349.9482
Epoch
3000/3000,
MSE
0.155164/0,
Gradient
0.0282053/1e-010
TRAINGD, Maximum epoch reached, performance goal was not met.
>> net.trainParam.epochs=1000;
>> [net,tr]=train(net,ptr,ttr,[],[],[],test);
TRAINGD-calcgrad, Epoch 0/1000, MSE 0.155164/0, Gradient 0.0282053/1e010
159
TRAINGD-calcgrad,
Epoch
1000/1000,
MSE
0.146765/0,
Gradient
0.0320263/1e-010
TRAINGD, Maximum epoch reached, performance goal was not met.
>>% Simulacin
>> an= sim(net,ptrans);
>> a=mapstd('reverse',an,ts);
>> for i=1:6
[m(i),b(i),r(i)]=postreg(a(i,:),t(i,:));
end
>> r
r=
0.8170
0.9288
0.9398
0.8423
0.9511
0.9353
160
Tabla 17. Valores deseados y obtenidos con las nuevas entradas PMC-BK
Valores Deseados
Valores Obtenidos
Error
Valores
de
entrada, obtenidos
190
189.0000
-1.0000
72.8493
185
171.3987
-13.6013
469.2229
185
171.5801
-13.4199
349.9482
190
181.0353
-8.9647
185
163.6635
-21.3365
185
177.9065
-7.0935
-65.4159*
3.2.4. Red Desarrollada en comparacin con la Red de base radial Tipo GRNN;
la Red Perceptrn Multicapa con Backpropagation y algoritmo LevenbergMarquardt, y con el Anlisis Estadstico Tradicional.
Datos:
Se utiliz el ejemplo de Diseo de experimentos del artculo de Vasconcelos et
al, Design of Experiments. Improve Molded Part Quality, publicado en Quality
Progress, N 7 del 2003,
Nivel bajo
Nivel alto
40
75
B. Temperatura de moldeo C
25
45
C. Temperatura de mezcla C
205
235
25
45
E. Tiempo de trabajo
F. Tiempo de enfriamiento
10
25
G. Velocidad de eyeccin %
25
Luego de trabajar los datos con la Red Desarrollada, con la Red de base radial
Tipo
GRNN;
con
la
Red
Perceptrn
Multicapa
con
aprendizaje
161
Red
Perceptrn
Anlisis
Desarrollada,
Multicapa
Estadstico
4.2.2.
con
Tradicional,
Backpropaga
Vasconcelos,
et al
Error
al 0
simular
la
GRNN
2.07
0.300
9.16
13.96
12.27
3 capas
3 capas
24 neuronas
7 neuronas
24 neuronas
7 neuronas
RD N capas; 3 capas
3 capas
3 capas
1 neurona
1 neurona
3 capas
3 capas
1 neurona
1 neurona
24 neuronas
7 neuronas
entrada p1
Error
de 9.16
simulacin
global
Red
Directa 3 capas,
neuronas 24 neuronas
capa
de
entrada
oculta
neuronas 1 neurona
capa de salida
Red
capa
Inversa 3 capas
neuronas 24 neuronas
de
162
entrada
coulta
RI. N capas; 3 capas
3 capas
3 capas
24 neuronas
7 neuronas
neuronas 24 neuronas
capa de salida
Entradas
96.4900
73.7378
61.5384
optimizadas
25.3424
30.3067
34.2308
para
valores
236.8544
227.1482
221.1538
deseados (85)
11.3201
31.0274
35.00
3.4994
2.7022
2.5
18.1457
16.7815;
16.9231
14.5591
14.7630.
15.7692
FACTORES
Y1
Y2
Y3
64.33
73.43
70.95
-1
-1
-1
-1
42.77
41.15
39.49
-1
-1
-1
-1
71.62
78.44
73.96
-1
-1
-1
-1
65.51
62.48
59.05
163
-1
-1
-1
-1
63.02
64.12
62.67
-1
-1
-1
-1
44.12
46.46
32.33
-1
-1
-1
-1
68.59
70.89
71.53
-1
-1
-1
-1
41.04
44.02
41.89
RESPUESTA PROMEDIO
NIVEL
BAJO
DEL NIVEL
ALTO
EFECTO
DEL
FACTOR
FACTOR
46.69
69.46
22.77
62.42
53.74
-8.68
54.22
61.93
7.71
56.78
59.38
2.6
59.27
56.88
-2.39
60.32
55.84
-4.48
55.35
60.81
5.46
Los valores negativos significan que sube el nivel del factor y a pesar de ello
baja el efecto del factor; es as que para el factor B la temperatura de moldeo
sube de 25C a 45C y el efecto disminuye de 62.42 a 53.74. Similar ocurre con
los factores E y F. El ANVA da los resultados de la tabla 22.
Tabla 22. Anlisis de Variancia ANVA del caso de vasconcellos et al.
Fuente de Variacin
Suma de Cuadrados
Grados de Libertad
Cuadrado Medio
Fo
3110.84
3110.84
226.34*
452.23
452.23
32.90*
356.51
356.51
25.94*
40.46
40.46
2.94
164
34.27
34.27
2.49
120.15
120.15
8.74*
178.65
178.65
13*
Residuo/Error
219.90
16
13.74
Total
4513.01
23
17.5
10
15
7.5
10
Donde: 58.08 es el valor medio de todos los efectos; para el factor A: 11.38 es
la mitad del efecto de A, 57.5 sale de (40+75) /2= 57.7 que es la media de la
suma de los valores del factor; 17.5 sale de (75-40) /2= 17.7 que es la media
de la diferencia de los valores del factor; de manera similar se hace para los
dems factores significativos.
15
17.5
10
7.5
10
=69.47; ello se puede calcular para las dems corridas y se tiene la Tabla 23.
Y1
Y2
Y3
Yreg
e1=Y1-Yreg
e1=Y1-Yreg
e1=Y1-Yreg
64.33
73.43
70.95
69.47
-5.14
3.96
1.48
42.77
41.15
39.49
41.24
1.53
-0.09
-1.75
71.62
78.44
73.96
77.17
-5.55
1.27
-3.21
65.51
62.48
59.05
59.86
5.65
2.62
-0.81
63.02
64.12
62.67
60.78
2.24
3.34
1.89
165
44.12
46.46
32.33
43.47
0.65
2.99
-11.14
68.59
70.89
71.53
70.44
-1.85
0.45
1.09
41.04
44.02
41.89
42.21
-1.17
1.81
-0.32
Los valores de los residuos se pueden presentar en una grfica de los residuos
vs. los valores de la regresin, y tambin en una de papel de probabilidad
normal. En ambos casos se puede chequear la validez del modelo, lo cual en
este caso es aceptable; asimismo, en el papel de probabilidad normal se
aprecia la normalidad, que aproxima a una recta; y el coeficiente de
determinacin es de R2= 0.935; lo cual indica que la prediccin es buena.
166
[ts]=simnewrbfcev15r(w1,b1,w2,b2,p)
167
ts =
Columns 1 through 7
69.5700 69.5700 69.5700 41.1367 41.1367 41.1367 74.6733
Columns 8 through 14
74.6733 74.6733 62.3467 62.3467 62.3467 63.2700 63.2700
Columns 15 through 21
63.2700 40.9700 40.9700 40.9700 70.3367 70.3367 70.3367
Columns 22 through 24
42.3167 42.3167 42.3167
Que permiten obtener los valores de prediccin con menor error que en los
otros casos. En este caso se repite lo de la Red GRNN, de facilidad y rapidez
de clculos con las Redes de Base Radial, y se puede calcular los valores para
todas las combinaciones y ya no slo con los valores de los 8 experimentos
(factorial fraccional), cosa impensable realizar con los otros mtodos; es as
que tenemos:
Factorial Completo.Comandos y procedimiento con factorial completo.
Red NEWRBFCEV15r.
La combinacin de todos los factores, y con ello 2 7=128 experimentos, que
seran los siguientes (el factorial completo); obtenindose los mismos
resultados.
>> sc=10;
>> [w1,b1,w2,b2,K]=newrbfcev15r(p,t,sc);
>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,p);
ts =
Columns 1 through 7
69.5700 69.5700 69.5700 41.1367 41.1367 41.1367 74.6733
Columns 8 through 14
74.6733 74.6733 62.3467 62.3467 62.3467 63.2700 63.2700
Columns 15 through 21
63.2700 40.9700 40.9700 40.9700 70.3367 70.3367 70.3367
Columns 22 through 24
42.3167 42.3167 42.3167
168
169
ts 1=
Columns 1 through 7
72.9809 74.6154 74.3609 40.0841 40.2833 39.9933 75.7472
45.9205 44.2860 33.1156 41.3361 32.5085 44.9646 26.1838
218.8712 236.3671 220.5289 231.8170 215.7643 234.9391 219.5381
170
3.0372
2.4997
2.0828
2.6294
2.0032
2.5048
2.7653
4.8825
5.0427 12.5327
Columns 8 through 14
74.9990 75.1893 39.1446 49.1605 39.9737 78.0787 78.6841
24.9995 25.3436 22.9373 32.6174 24.9595 43.3327 48.0131
235.0016 234.3487 240.3091 224.0130 235.0689 207.2298 214.0828
24.9986 25.3453 43.0827 47.5737 44.9779 41.2721 46.1221
3.0000
2.9821
2.1380
1.9314
2.0010
10.0004
9.9557 11.6683
5.0001
2.1148
2.4193
Columns 15 through 21
61.7515 39.4947 40.0094 39.9989 75.4963 74.4099 75.3948
36.8284 34.7619 45.0500 45.0007 25.8239 33.8973 26.7450
216.3000 202.8962 204.9682 205.0014 203.1458 220.4588 219.7484
44.2891 35.5751 24.9735 25.0018 25.7559 33.9058 26.7668
1.9888
3.0991
9.7121 16.5754
2.9998
3.0000
1.9542
2.5005
2.5001
2.8799
2.8190
6.7184
ts2 =
96.4900
171
25.3424
236.8544
11.3201
3.4994
18.1457
14.5591
>> %Red Directa: con las nuevas entradas para obtener la red directa se tiene:
>>%Para los valores de t:
t=
Columns 1 through 7
64.3300 73.4300 70.9500 42.7700 41.1500 39.4900 71.6200
Columns 8 through 14
78.4400 73.9600 65.5100 62.4800 59.0500 63.0200 64.1200
Columns 15 through 21
62.6700 44.1200 46.4600 32.3300 68.5900 70.8900 71.5300
Columns 22 through 24
41.0400 44.0200 41.8900
>>%Simulando con t 24 y la simnewrbfcev15rr:
>> ts24
ts 24=
Columns 1 through 7
69.5700 69.5700 69.5700 41.1367 41.1367 41.1367 74.6733
Columns 8 through 14
74.6733 74.6733 62.3467 62.3467 62.3467 63.2700 63.2700
Columns 15 through 21
63.2700 40.9700 40.9700 40.9700 70.3367 70.3367 70.3367
Columns 22 through 24
42.3167 42.3167 42.3167
172
Las mismas que corresponden a las siguientes variables de entrada. Ver Tabla
24.
Tabla 24. Valores de factores para obtener un valor deseado
Factores del proceso
Nivel bajo
Nivel alto
Valores para
obtener 85
40
75
96.4900
B. Temperatura de moldeo C
25
45
25.3424
C. Temperatura de mezcla C
205
235
236.8544
25
45
11.3201
E. Tiempo de trabajo
3.4994
F. Tiempo de enfriamiento
10
25
18.1457
G. Velocidad de eyeccin %
25
14.5591
173
Con esta red, se podr predecir el desempeo futuro del proceso, es decir,
dados unas entradas determina los valores de salida. Por otro lado tambin se
podr obtener valores de entrada del proceso que han sido optimizados. Con
174
175
p=
40
25 205
25
10
40
25 205
25
10
25
40
25 205
25
25
40
25 205
25
25
25
40
25 205
25
10
40
25 205
25
10
25
40
25 205
25
25
40
25 205
25
25
25
40
25 205
45
10
5
176
40
25 205
45
25
25
40
25 205
45
25
40
25 205
45
25
25
40
25 205
45
10
40
25 205
45
25
25
40
25 205
45
25
40
25 205
45
25
25
40
25 235
25
10
40
25 235
25
25
25
40
25 235
25
25
40
25 235
25
25
25
40
25 235
25
10
40
25 235
25
25
25
40
25 235
25
25
40
25 235
45
25
25
40
25 235
45
10
40
25 235
45
10
25
40
25 235
45
25
40
25 235
45
25
25
40
25 235
45
10
40
25 235
45
10
25
40
25 235
45
25
40
25 235
25
25
25
40
45 205
25
10
40
45 205
25
10
25
40
45 205
25
25
40
45 205
25
25
25
40
45 205
25
10
40
45 205
25
10
25
40
45 205
25
25
40
45 205
25
25
25
40
45 205
45
10
40
45 205
45
10
25
40
45 205
45
25
5
177
40
45 205
45
25
25
40
45 205
45
10
40
45 205
45
10
25
40
45 205
45
25
40
45 205
45
25
25
40
45 235
25
10
40
45 235
25
10
25
40
45 235
25
25
40
45 235
25
25
25
40
45 235
25
10
40
45 235
25
10
25
40
45 235
25
25
40
45 235
25
25
25
40
45 235
45
10
40
45 235
45
10
25
40
45 235
45
25
40
45 235
45
25
25
40
45 235
45
10
40
45 235
45
10
25
40
45 235
45
25
40
45 235
45
25
25
75
25 205
25
10
75
25 205
25
10
25
75
25 205
25
25
75
25 205
25
25
25
75
25 205
25
10
75
25 205
25
10
25
75
25 205
25
25
75
25 205
25
25
25
75
25 205
45
10
75
25 205
45
10
25
75
25 205
45
25
75
25 205
45
25
25
75
25 205
45
10
5
178
75
25 205
45
10
25
75
25 205
45
25
75
25 205
45
25
25
75
25 235
25
10
75
25 235
25
10
25
75
25 235
25
25
75
25 235
25
25
25
75
25 235
25
10
75
25 235
25
10
25
75
25 235
25
25
75
25 235
25
25
25
75
25 235
45
10
75
25 235
45
10
25
75
25 235
45
25
75
25 235
45
25
25
75
25 235
45
10
75
25 235
45
10
25
75
25 235
45
25
75
25 235
45
25
25
75
45 205
25
10
75
45 205
25
10
25
75
45 205
25
25
75
45 205
25
25
25
75
45 205
25
10
75
45 205
25
10
25
75
45 205
25
25
75
45 205
25
25
25
75
45 205
45
10
75
45 205
45
10
25
75
45 205
45
25
75
45 205
45
25
25
75
45 205
45
10
75
45 205
45
10
25
75
45 205
45
25
5
179
75
45 205
45
25
25
75
45 235
25
10
75
45 235
25
10
25
75
45 235
25
25
75
45 235
25
25
25
75
45 235
25
10
75
45 235
25
10
25
75
45 235
25
25
75
45 235
25
25
25
75
45 235
45
10
75
45 235
45
10
25
75
45 235
45
25
75
45 235
45
25
25
75
45 235
45
10
75
45 235
45
10
25
75
45 235
45
25
75
45 235
45
25
25
>> sc=10;
>> net=newgrnn(p,t,sc);
>> v=sim(net,p)
v=
Columns 1 through 7
69.5701 69.5701 69.5701 41.1379 41.1379 41.1379 74.6728
Columns 8 through 14
74.6728 74.6728 62.3449 62.3449 62.3449 63.2705 63.2705
Columns 15 through 21
63.2705 40.9703 40.9703 40.9703 70.3363 70.3363 70.3363
Columns 22 through 24
42.3172 42.3172 42.3172
>> v=sim(net,d2')
180
v=
Columns 1 through 7
42.0222 41.0489 42.3033 41.6576 42.0220 41.0481 42.3032
Columns 8 through 14
41.6524 42.3281 42.4350 42.3172 42.4350 42.3279 42.4331
Columns 15 through 21
42.3172 42.4331 46.3280 57.4582 41.4359 57.4582 46.3326
Columns 22 through 28
57.4578 41.4363 62.3107 61.9476 62.3449 55.9393 62.3108
Columns 29 through 35
61.9459 62.3449 55.9200 57.4578 40.9932 40.9703 41.2684
Columns 36 through 42
40.9736 40.9931 40.9703 41.2686 40.9736 42.2701 41.0335
Columns 43 through 49
42.3118 41.3160 42.2665 41.0329 42.3117 41.3155 41.1632
Columns 50 through 56
45.4883 41.1379 41.4146 41.1632 45.4820 41.1379 41.4147
Columns 57 through 63
45.9951 62.0359 41.4192 57.5975 45.9950 62.0354 41.4193
Columns 64 through 70
57.5991 69.3207 70.3292 70.2677 70.3363 69.3283 70.3292
Columns 71 through 77
70.2680 70.3363 63.3693 68.7155 64.6396 70.2381 63.3693
Columns 78 through 84
68.7155 64.6362 70.2381 74.6728 74.5768 74.6627 73.1732
Columns 85 through 91
74.6728 74.5772 74.6628 73.1773 74.5828 70.6352 73.4829
Columns 92 through 98
69.6324 74.5828 70.6366 73.4831 69.6324 63.3791 68.3937
Columns 99 through 105
64.9008 70.2240 63.3791 68.3893 64.9009 70.2238 63.2705
Columns 106 through 112
63.3969 63.2806 65.3633 63.2705 63.3974 63.2807 65.3692
Columns 113 through 119
181
>> v10=sim(net,t)
v10 =
Columns 1 through 7
65.9731 70.7157 69.6819 40.9308 40.5765 40.3492 69.9765
34.0366 32.3256 32.7982 37.5757 37.7098 37.8579 32.6701
221.3126 223.2927 222.6390 216.0503 216.0761 216.1091 222.8066
38.3858 34.7313 35.7388 32.8568 32.5659 32.3133 35.4621
2.3317
2.4898
2.4416
2.6165
2.6212
2.6237
2.4545
2.5002
2.3476
2.3128
2.3069
2.3175
2.3292
2.6096
2.5872
2.6400
2.3979
2.4405
2.4528
2.6102
2.6194
>> v20=sim(net,85)
V20 =
73.7378
30.3067
227.1482
31.0274
183
2.7022
16.7815
14.7630
>> %Red Directa: con las nuevas entradas para obtener la red directa se tiene:
>>%Los nuevos valores de t:
>> t24
t 24=
Columns 1 through 7
64.3300 73.4300 70.9500 42.7700 41.1500 39.4900 71.6200
Columns 8 through 14
78.4400 73.9600 65.5100 62.4800 59.0500 63.0200 64.1200
Columns 15 through 21
62.6700 44.1200 46.4600 32.3300 68.5900 70.8900 71.5300
Columns 22 through 24
41.0400 44.0200 41.8900
>> v24
v 24=
Columns 1 through 7
69.5701 69.5701 69.5701 41.1379 41.1379 41.1379 74.6728
Columns 8 through 14
74.6728 74.6728 62.3449 62.3449 62.3449 63.2705 63.2705
Columns 15 through 21
63.2705 40.9703 40.9703 40.9703 70.3363 70.3363 70.3363
Columns 22 through 24
42.3172 42.3172 42.3172
184
>>24 = [64.3300;73.4300;70.9500;42.7700;41.1500;39.4900;71.6200;78.4400;
73.9600;65.5100;62.4800;59.0500;63.0200;64.1200;62.6700;44.1200;46.4600;
32.3300;68.5900;70.8900;71.5300;41.0400;44.0200;41.8900];
>> net=newgrnn(v20,t24,sc);
>> %Es la nueva red para obtener 85 de salida, y lo hace con las entradas de
v10 =73.7378; 30.3067; 227.1482; 31.0274; 2.7022;
16.7815; 14.7630.
Tabla 25. Valores de factores para obtener un valor deseado, Red GRNN
Factores del proceso
Nivel bajo
Nivel alto
Valores para
obtener 85
40
75
73.7378
B. Temperatura de moldeo C
25
45
30.3067
C. Temperatura de mezcla C
205
235
227.1482
25
45
31.0274
E. Tiempo de trabajo
2.7022
F. Tiempo de enfriamiento
10
25
16.7815;
G. Velocidad de eyeccin %
25
14.7630.
Se puede ver que el desempeo de las Redes de Base Radial, tanto con la red
directa, sin valores de deseabilidad como con el proceso con valores deseados
de calidad, tiene importantes ventajas y el proceso es relativamente corto y
adems la reduccin de errores es superior. Por tanto se procede a
continuacin a profundizar sobre el funcionamiento de la red de base radial.
Para ello se presenta el detalle de los clculos de la Red de Base Radial,
185
RN Diseo
186
Levenberg-Marquardt.
En la informacin que
optimizar procesos.
Con base a los datos de entrada y salida; se trabaja con Backpropagation BP
con algoritmo Levenberg-Marquardt; con la arquitectura 6-6-3 para la red
directa.
Interfase: Matlab Neural Networks
187
188
>> net.trainParam.lr=0.01;
>> net.trainParam.epochs=3000;
>> [net,tr]=train(net,ptr,ttr,[],[],[],test);
TRAINLM-calcjx, Epoch 0/3000, MSE 2.51586/0, Gradient 4.43813/1e-010
TRAINLM-calcjx, Epoch 7/3000, MSE 0.0257978/0, Gradient 4.51195e-015/1e010
TRAINLM, Minimum gradient reached, performance goal was not met.
>> an= sim(net,ptrans);
>> a=mapstd('reverse',an,ts);
>> for i=1:1
[m(i),b(i),r(i)]=postreg(a(i,:),t(i,:));
end
>> r
r=
0.9706
>> pnew=[75;45;235;45;3;25;25];
>> pnewn=mapstd('apply',pnew,ps1);
>> pnewtrans=mapstd('apply',pnewn,ps2);
>> Y=sim(net,pnewtrans);
>> Ys=mapstd('reverse',Y,ts);
>> Ys
Ys =
68.8800; valor cercano al obtenido con diseo de experimentos.
>> Para los 24 valores se tiene
>> pn=mapstd('apply',p,ps1);
>> pntrans=mapstd('apply',pn,ps2);
>> Y=sim(net,pntrans);
>>Ys=mapstd('reverse',Y,ts);
>> Ys
Ys =
Columns 1 through 7
68.8800 68.8800 68.8800 41.9600 41.9600 41.9600 75.0300
Columns 8 through 14
189
190
0.0861
0.0861
0.0861
>> pnew=[85];
>> pnewn=mapstd('apply',pnew,ps1);
>> pnewtrans=mapstd('apply',pnewn,ps2);
>> Y=sim(net,pnewtrans);
>> Ys=mapstd('reverse',Y,ts);
>> Ys
Ys =
61.5385
34.2308
221.1538
16.9231
15.7692
%Para filas 4 y 5 se puede considerar el promedio. Es decir fila 4: 2.5 y fila
5:35.
>> Red Directa
>> %cambiando p por t y viceversa:
191
>> [pn,ps1]=mapstd(p);
>> [ptrans,ps2]=mapstd(pn,0.000001);
>> [tn,ts]=mapstd(t);
>> [R,Q]=size(ptrans)
R=
5
Q=
24
>> iitst=3:3:Q;
>> iitr=[1:3:Q 2:3:Q];
>> test.P=ptrans(:,iitst); test.T=tn(:,iitst);
>> ptr=ptrans(:,iitr); ttr=tn(:,iitr);
>> net=newff(minmax(ptr),[5 1],{'tansig' 'purelin'},'trainlm');
>> net.trainParam.lr=0.01;
>> net.trainParam.epochs=3000;
>> [net,tr]=train(net,ptr,ttr,[],[],[],test);
TRAINLM-calcjx, Epoch 0/3000, MSE 2.40105/0, Gradient 4.01543/1e-010
TRAINLM-calcjx, Epoch 5/3000, MSE 0.534856/0, Gradient 1.51558e-015/1e010
>> an= sim(net,ptrans);
>> a=mapstd('reverse',an,ts);
>> for i=1:1
[m(i),b(i),r(i)]=postreg(a(i,:),t(i,:));
end
>> r
r=
0.1117 -0.0861
0.0861
0.0861
0.0861
68.6721
a.
Factor A
Factor B
Factor C
Factor D
Tasa filtrac
45
71
48
65
68
60
gal/h
193
80
65
43
10
100
11
45
12
104
13
75
14
86
15
70
16
96
Velocidad
NIVEL 1
de 1
NIVEL 2
2
inyeccin
B Tiempo enfriamiento
40 seg
50 seg
C. Zonas de barril
1, Baja temperatura
2, Alta temperatura
D. Temperatura molde
100
150
E. Presin de proceso
200
1100
F. Contra presin
50
150
194
Ancho
000*
005
000
000
005
375
560
570
585
590
075
090
070
065
065
650
640
640
640
645
045
050
045
045
045
545
545
545
550
540
100
105
105
110
105
630
625
625
635
635
105
110
105
120
100
555
560
560
555
560
045
055
065
050
050
580
550
550
540
545
150
140
155
150
145
600
585
585
590
585
055
065
055
055
060
565
565
565
565
560
*se presentan diez milsima; siendo el valor 14.5, en longitud y 9.38 en ancho.
Obtenindose los siguientes resultados con base a los efectos:
Longitud: A12, B12, C1,D1 , E1; F 1 o 2
Ancho: A1,B1 2, C12, D1, E2, F 1 o 2.
Final: A1, B1, C1, D1, E1, F1 2.
c. Del texto Taguchi Techniques for Quality Engineering de Ross, P., sobre
Diseo de Experimentos con factores y niveles, sobre soldadura de punto;
Apndice G, que presenta los datos de la Tabla 29.
NIVEL 1
NIVEL 2
A. Prog. Soldado
B Grosor de sellado
3 mm
5 mm
C.
Secuencia
de 1: 1-2-3-4-5
2: 1-5-2-4-3
de 20 mm
30 mm
E. Ancho de reborde
10 mm
15 mm
F. Grosor L
.75 mm
1.00 mm
G. Grosor I
1.00 mm
1.5 mm
soldado
D.
Espaciamiento
soldado
195
Lado Derecho
100*
97
76
87
80
82
71
59
68
58
61
66
62
60
73
51
56
56
52
56
79
72
74
65
67
81
82
78
78
74
96
102
116
111
108
103
106
109
124
99
75
89
73
79
67
75
88
68
71
67
95
102
89
88
84
97
100
85
94
80
109
115
107
109
110
113
111
94
106
106
98
125
90
109
108
74
94
70
103
110
*Desviacin en mmx100
Obtenindose el respectivo ANVA y un estimado de la media de 59.65 y la
mejor combinacin A1,B1,G2, que corresponde a la segunda corrida.
Aplicando las RN Desarrolalda y las de Base Radial Exacta (newrbe) y de
Regresin Generalizada (GRNN), para los 3 casos seleccionados se tiene lo
siguiente:
Red
de
F.B. Anlisis
Desarrollada,
Radial
Radial
Estadsticos
4.2.2.
GRNN
NEWRBE
Tradicionales,
Montgomery
Error
al 0
simular
la
2.9556
1.22
196
entrada p1
Error
de 0
11.0169
3 capas
3 capas
4 neuronas
4 neuronas
16 neuronas
16 neuronas
RD N capas; 3 capas
3 capas
3 capas
1 neurona
1 neurona
3 capas
3 capas
1 neurona
1 neurona
16 neuronas
16 neuronas
3 capas
3 capas
4 neuronas
4 neuronas
22.44
simulacin
global
Red
Directa 3 capas,
neuronas 16 neuronas
capa
de
entrada
oculta
neuronas 1 neurona
capa de salida
Red
Inversa 3 capas
neuronas 16 neuronas
capa
de
entrada
oculta
neuronas 4 neuronas
capa de salida
Entradas
1.0389
1.0000
1.0389
optimizadas
0.9121
1.2361
0.9121
valores 1.9601
1.0000
1.9601
1.7639
0.9141
para
deseados (35)
0.9141
197
199
>> %En la simulacin se obtienen todos los valores de salida con error 0.
>> %Caso de simular dado un valor de entrada:
>> pea1=[1 1 1 1];
>> v=sim(neta,pea1')
v=
45.0000
>> %Con valores deseados, t=35 gal/hr
>> %Inversa
>> net=newrbe(tea',pea');
>> v10=sim(net,35)
v10 =
1.0389 ;
0.9121;
1.9601;
0.9141
200
201
de Suma
de Grados
de Media
de Fo
variacin
cuadrados
libertad
Cuadrados
1870.56
1870.56
83.36*
390.06
390.06
18.38*
855.56
855.56
38.13*
AC
1314.06
1314.06
58.56*
AD
1105.56
1105.56
49.27*
CD
5.06
5.06
<1
ACD
10.56
10.56
<1
Error
179.52
22.44
Total
5730.94
15
*Significativo al nivel de 1%
Error al proyectar el primer valor: 46.22-45.00=1.22
202
Red
Desarrollada,
Radial
Radial
Estadsticos
4.2.2.
GRNN
NEWRBE
Tradicionales,
Schmidt
Launsby ,
Error
al 0.0011
simular
la 0.0004
0.0011
Compara
0.0004
promedios
Compara
entrada p1
Error
de 0
simulacin
promedios
global
Red
Directa 3 capas,
3 capas
3 capas
8 neuronas
8 neuronas
8 neuronas
8 neuronas
RD N capas; 3 capas
3 capas
3 capas
2 neuronas
2 neuronas
3 capas
3 capas
2 neurona
2 neurona
8 neuronas
8 neuronas
3 capas
3 capas
6 neuronas
6 neuronas
neuronas 8 neuronas
capa
de
entrada
oculta
neuronas 2 neuronas
capa de salida
Red
Inversa 3 capas
neuronas 8 neuronas
capa
de
entrada
oculta
neuronas 6 neuronas
capa de salida
Entradas
D:100
100
100
203
optimizadas
C:1
valores A:1
deseados (0 y B:50
40
50
800)
E:1100
200
1100
F:150
50
50**
para
No respondi
*Detalle de clculos ver en 4.3.2. 1, 2, 3 y 4.
**Seleccionado por menor impacto, por ser presin, pero eran indistintos los
2 niveles.
Para este caso se debe mencionar que se aplica el Arreglo octogonal AOL8 de
Taguchi, pero con 6 factores; que tiene el siguiente diseo:
Factores
Salidas
Largo
Ancho
100
40
200
50
536
100
50
1100 150
73
643
100
3,1
40
200
150
46
545
100
3,1
50
1100
50
105
630
150
3,1
40
1100
50
108
558
150
3,1
50
200
150
53
553
204
150
40
1100 150
150
50
200
50
148
589
58
564
Los valores buscados son largo 0, que corresponde a 14,5000 y ancho 800,
que corresponde a 9.3800. En este caso se busca determinar la mejor
combinacin que permita obtener, los valores buscados. El autor obtuvo:
D1(100); C1(1), E2(1100); A1(1), B2(50), F1(50). F1=50 se prefiere por menor
impacto, por ser presin, el otro valor es de 150, ver 4.3.2.4.
3.3.2.1. Con la Red Desarrollada
Se aplicaron los datos a la Red Desarrollada, red newrbfcev15r en el Shell de
Matlab Neural Networks con la interfase que se presenta a continuacin y se
obtuvieron los resultados siguientes:
>>%Construccin de red y simulacin:
>>sc=1;
>> [w1,b1,w2,b2,K]=newrbfcev15r(peb',teb',sc);
>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,peb')
>> [w1,b1,w2,b2,K]=newrbfcev15r(peb',teb',sc);
>> [ts1]=simnewrbfcev15rr(w1,b1,w2,b2,peb')
ts1 =
Columns 1 through 7
2.0000 73.0000 46.0000 105.0000 108.0000 53.0000 148.0000
536.0000 643.0000 545.0000 630.0000 558.0000 553.0000 589.0000
Column 8
58.0000
564.0000
205
206
0.0010
0.0500
1.1000
0.1500
>>%Que son los valores de entrada optimizados para obtener 0 y 800 de
salida, >> %y corresponde a los factores D,C,A,B,E,F, respectivamente.
3.3.2.2. Con la Red NEWRBE
>>Construccin de la red y simulacin
>> netb=newrbe(peb',teb');
>> v=sim(netb,peb')
v=
Columns 1 through 7
2.0000 73.0000 46.0000 105.0000 108.0000 53.0000 148.0000
536.0000 643.0000 545.0000 630.0000 558.0000 553.0000 589.0000
Column 8
58.0000
564.0000
>>%Con la primera entrada peb1 se poprb obtener la salida respectiva.
>> peb1=[100;1;1;40;200;50];
>> v=sim(net,peb1)
v=
1.9989
535.9996
>> %Para obtener un valor deseado exacto, buscar entradas optimizadas.
>> %newrbe, inversa
>> net=newrbe(teb',peb');
>> teb1=[000 800];
>> v10=sim(net,teb1')
v10 =
100.0000
1.0000
1.0000
40.0000
207
200.0000
50.0000
>> %Que corresponde a los factores D,C,A,B,E,F, respectivamente.
3.3.2.3. Con la Red NEWGRNN
>>Construccin de la red y simulacin
>> netbg=newgrnn(peb',teb');
>> v=sim(netbg,peb')
v=
2
73
46 105 108
53 148
58
208
>> v10=sim(net,teb')
v10 =
1.0e+003 *
Columns 1 through 7
0.1000
0.1000
0.1000
0.1000
0.1500
0.1500
0.1500
0.0010
0.0010
0.0020
0.0020
0.0010
0.0010
0.0020
0.0010
0.0010
0.0031
0.0031
0.0031
0.0031
0.0010
0.0400
0.0500
0.0400
0.0500
0.0400
0.0500
0.0400
0.2000
1.1000
0.2000
1.1000
1.1000
0.2000
1.1000
0.0500
0.1500
0.1500
0.0500
0.0500
0.1500
0.1500
Column 8
0.1500
0.0020
0.0010
0.0500
0.2000
0.0500
>> v10=sim(net,teb1')
v10 =
0
0
0
0
0
0
>> sc=5;
>> net=newgrnn(teb',peb',sc);
>> v10=sim(net,teb')
v10 =
1.0e+003 *
Columns 1 through 7
0.1000
0.1000
0.1021
0.1000
0.1500
0.1479
0.1500
0.0010
0.0010
0.0020
0.0020
0.0010
0.0011
0.0020
209
0.0010
0.0010
0.0031
0.0031
0.0031
0.0031
0.0010
0.0400
0.0500
0.0404
0.0500
0.0400
0.0496
0.0400
0.2000
1.1000
0.2000
1.1000
1.1000
0.2000
1.1000
0.0500
0.1500
0.1500
0.0500
0.0500
0.1484
0.1500
Column 8
0.1500
0.0020
0.0010
0.0500
0.2000
0.0517
>> v10=sim(net,teb1')
v10 =
0
0
0
0
0
0
Longitud
Ancho
100
100
1 2
200
1100
210
12
12
50
12
12
211
Indicadores
Red
Desarrollada, Radial
Radial
Estadsticos
4.2.2.
NEWRBE
Tradicionales,
GRNN
Ross
Error al simular 0
1.9803
No calcula;
la entrada p1
1.0770
Compara
promedios de
efectos
Error
de 0
3 capas
3 capas
N 8 neuronas
8 neuronas
8 neuronas
capa 8 neuronas
8 neuronas
8 neuronas
RD N capas; N 3 capas
3 capas
3 capas
neuronas
2 neuronas
2 neuronas
3 capas
3 capas
N 2 neurona
2 neurona
2 neurona
capa 8 neuronas
8 neuronas
8 neuronas
3 capas
3 capas
neuronas
6 neuronas
6 neuronas
77.47
simulacin
global
capas;
neuronas
de
entrada
oculta
capa 2 neuronas
de salida
capas;
neuronas
de
entrada
oculta
capa 6 neuronas
de salida
Entradas
A:2
optimizadas
B:5
valores C:1
de D:20
20
20
E:15
15
15
F:1
para
deseados
salida (0 y 0)
212
G:1
No
No calcula
No calcula
No
respondi
Error con mejor 0
corrida
(64.4-
54.2)
Error con salida 0
mnima
respondi
aceptable(51,51)
Error con salida 0
Slo acierta
mxima
2 salidas de
aceptable(73,73)
213
3.0000
0.7500
1.0000
1.0000
3.0000
1.0000
1.5000
1.0000
5.0000
1.0000
1.5000
1.0000
5.0000
0.7500
1.0000
2.0000
3.0000
0.7500
1.5000
2.0000
3.0000
1.0000
1.0000
2.0000
5.0000
1.0000
1.0000
2.0000
5.0000
0.7500
1.5000
>> tec
tec =
88.0000 67.6000
64.4000 54.2000
71.4000 78.6000
106.6000 108.2000
76.6000 73.8000
91.6000 91.2000
110.0000 106.0000
106.0000 90.2000
214
>> sc=1;
>> [w1,b1,w2,b2,K]=newrbfcev15r(pec',tec',sc);
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,pec')
ts =
Columns 1 through 7
88.0000 64.4000 71.4000 106.6000 76.6000 91.6000 110.0000
67.6000 54.2000 78.6000 108.2000 73.8000 91.2000 106.0000
Column 8
106.0000
90.2000
>>%Con el primer valor de entrada
>> pec1=[ 1.0000
3.0000
0.7500
1.0000];
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,pec1')
ts =
88.0000
67.6000
215
corresponde
lo
obtenido
por
el
autor,
la
combinacin:
>>A1,B1,C1,D2,E2,F2,G2.
> >%Con el ms bajo de los valores aceptados que es 51- 51 y el ms
>> % alto de los valores aceptados es 73 -73; ello implica entradas de:
>> tec1=[51 51];
>> tec2=[73 73];
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,tec1')
ts =
2.0000
5.0000
1.0000
19.9999
15.0001
1.0000
1.0000
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,tec2')
ts =
2.0000
4.9998
216
1.0001
19.9999
14.9997
1.0000
1.0000
>>%Este tipo de clculos no se puede hacer con el Anlsis Estadstico
Tradicional.
>>%Asimismo, con la salida tec4= [0 0], se obtiene la siguiente combinacin
>> tec4=[0;0];
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,tec4)
ts =
2.0000
5.0000
1.0000
19.9999
15.0001
1.0000
1.0000
217
v=
88.0000
67.6000
>> %Para obtener un valor deseado exacto
>> %Newrbe inversa
>> netc=newrbe(tec',pec');
>> v=sim(netc,tec')
v=
Columns 1 through 7
1.0000
1.0000
1.0000
1.0000
2.0000
2.0000
2.0000
3.0000
3.0000
5.0000
5.0000
3.0000
3.0000
5.0000
1.0000
1.0000
2.0000
2.0000
2.0000
2.0000
1.0000
1.0000
1.0000
0.7500
0.7500
1.0000
1.0000
1.0000
1.5000
1.5000
1.0000
1.5000
1.0000
1.0000
Column 8
2.0000
5.0000
1.0000
30.0000
10.0000
0.7500
1.5000
> >%Con el ms bajo de los valores aceptados que es 51- 51 y el ms
>> % alto de los valores aceptados es 73 -73; ello implica entradas de:
>> tec1=[51 51];
>> tec2=[73 73];
>> v=sim(netc,tec1')
v=
2.0000
5.0000
1.0000
218
19.9999
15.0001
1.0000
1.0000
>> v=sim(netc,tec2')
v=
2.0000
4.9998
1.0001
19.9999
14.9997
1.0000
1.0000
>> v=sim(netc,tec1')
v=
2.0000
219
5.0000
1.0000
19.9999
15.0001
1.0000
1.0000
>>%Que corresponde a la combinacin A2, B2, C1, D1, E2, F2, G1; resultado
>>que no se puede obtener con los Mtodos Taguchi.
3.0000
0.7500
1.0000];
>> v=sim(netcg,pec1')
v=
86.0197
68.6770
>>Red Inversa
>> netcg=newgrnn(tec',pec');
>> v=sim(netcg,tec')
v=
Columns 1 through 7
1.0000
1.0000
1.0000
1.0000
2.0000
2.0000
2.0000
3.0000
3.0000
5.0000
5.0000
3.0000
3.0000
5.0000
220
1.0000
1.0000
2.0000
2.0000
2.0000
2.0000
1.0000
1.0000
1.0000
0.7500
0.7500
1.0000
1.0000
1.0000
1.5000
1.5000
1.0000
1.5000
1.0000
1.0000
Column 8
2.0000
5.0000
1.0000
30.0000
10.0000
0.7500
1.5000
> >%Con el ms bajo de los valores aceptados que es 51- 51 y el ms
>> % alto de los valores aceptados es 73 -73; ello implica entradas de:
>> tec1=[51 51];
>> tec2=[73 73];
>> v=sim(netcg,tec1')
v=
1.0e-025 *
0.0073
0.0220
0.0073
0.2196
0.1098
0.0073
0.0110
>> v=sim(net,tec2')
v=
2.0000
3.0000
2.0000
20.0000
221
10.0000
0.7500
1.5000
>>%Probando con el mejor valor del experimento, la segunda corrida, se tiene:
>> tec3=[64.4 54.2];
>> v=sim(net,tec3)
v=
1.0000
3.0000
1.0000
30.0000
15.0000
1.0000
1.5000
>>%Justo lo mismo que obtuvo Roos: A1, B1, C1, D2, E2, F2, G2.
>>%Si queremos un error de [0,0] y conocemos la red inversa, podemos
obtener:
>> tec4=[0 0];
>> v=sim(netcg,tec4)
v=
0;
0;
0;
0;
0;
0;
222
de Suma
cuadrados
de Grados
de
Media
de Fo
Cuadrados
libertad
A
3537.81
3537.81
45.66
12.18
8988.81
8988.81
116.02
31.37
42.06
42.06
0.54
510.06
510.06
6.58
72.19
72.19
0.93
768.81
768.81
9.92
2.43
7411.25
7411.25
95.66
25.81
Error
4958.38
64
77.47
Total
28409.38
1.52
Luego del anlisis de aspectos diversos, entre ellos el factor ruido, se obtiene la
estimacinde la media = A1 B1 G2 2T = 59.65; y se decide por la mejor
combinacin: A1(1); B1(3); C1(1); D2(30); E2(15); F2(1); G2(1.5); y la mejor
combinacin est en la segunda corrida.
223
224
Factores, Componentes %
A
Respuestas
Y1 Prom. Y2 Prom.
Ranking
Agradable
49
25
16
10
9.33
5.14
51
31
10
9.17
4.43
55
28
13
9.57
3.96
55
25
10
10
3.67
6.29
55
29
7.33
5.07
51
31
10
9.00
4.12
55
25
10
10
5.33
6.21
52
28
16
12.33
4.21
52
25
16
8.67
5.54
10
49
28
13
10
6.50
4.92
11
55
25
16
8.00
4.60
12
55
29
7.17
5.79
13
55
31
10
7.50
4.60
225
14
49
31
13
7.67
4.99
15
49
31
16
9.17
2.79
Para el trabajo del experimento se trabaj con los valores transformados a nivel
de seudocomponentes, haciendo la transformacin con la frmula:
Xi =(xi-Li)/(1- Li); siendo los Li para A:49; B:25;C:8;D:4; la Li=86.
Llegndose a los siguientes valores de las variables de entrada, factores, que
se presenta en la Tabla 38.
Factores, componentes
A
0.0000
.5714
.4286
.1429
.4286
.4286
.4286
.2143
.3571
.4286
.1429
.4286
.4286
.2857
.2857
.1429
.4286
.4286
.4286
.1429
.4286
.2143
.2143
.5714
.2143
.5714
.2143
10
.2143
.3571
.4286
11
.4286
.5714
12
.4286
.2857
.2857
13
.4286
.4286
.1429
14
.4286
.3571
.2143
15
.4286
.5714
226
Red
Red
de
F.B. Anlisis
Desarrollada,
Radial
Estadsticos
4.2.2.
NEWRBE
Tradicionales,
Montgomery
Error
al
simular
la 0
0.6
0.1
simulacin 0
0.6
entrada p1
Error de
global
0.1
3 capas
15 neuronas
15 neuronas
oculta
RD
neuronas
capas;
capa
N 3 capas
3 capas
de 2 neuronas
2 neuronas
salida
Red Inversa RI. N 3 capas
3 capas
2 neurona
15 neuronas
oculta
RI.
neuronas
capas;
capa
N 3 capas
3 capas
de 4 neuronas
4 neuronas
227
salida
Entradas optimizadas A:55
51.8582
55.00
para
29.6904
25.67
8.3577
9.33
(4.7 y 5.9)
10.0938
10.00
valores B:25
D:10
25
16
10
51
31
10
55
28
13
55
25
10
10
55
29
51
31
10
55
25
10
10
52
28
16
52
25
16
49
28
13
10
55
25
16
55
29
55
31
10
49
31
13
49
31
16
228
>> tet
tet =
9.3300
5.1400
9.1700
4.4300
9.5700
3.9600
3.6700
6.2900
7.3300
5.0700
9.0000
4.1200
5.3300
6.2100
12.3300
4.2100
8.6700
5.5400
6.5000
4.9200
8.0000
4.6000
7.1700
5.7900
7.5000
4.6000
7.6700
4.9900
9.1700
2.7900
229
>> sc=1;
>> [w1,b1,w2,b2,K]=newrbfcev15r(pet',tet',sc);
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,pet')
ts =
Columns 1 through 7
9.3300
9.0850
9.5700
4.5000
7.2500
9.0850
4.5000
5.1400
4.2750
3.9600
6.2500
5.4300
4.2750
6.2500
Columns 8 through 14
12.3300
8.6700
6.5000
8.0000
7.2500
7.5000
7.6700
4.2100
5.5400
4.9200
4.6000
5.4300
4.6000
4.9900
Column 15
9.1700
2.7900
230
>> netpto=newrbe(pet',tet');
>> v=sim(netpto,pet')
v=
Columns 1 through 7
9.3300
9.0850
9.5700
4.5000
7.2500
9.0850
4.5000
5.1400
4.2750
3.9600
6.2500
5.4300
4.2750
6.2500
231
Columns 8 through 14
12.3300
8.6700
6.5000
8.0000
7.2500
7.5000
7.6700
4.2100
5.5400
4.9200
4.6000
5.4300
4.6000
4.9900
Column 15
9.1700
2.7900
9.0850
9.5700
4.5000
7.2500
9.0850
4.5000
5.1400
4.2750
3.9600
6.2500
5.4300
4.2750
6.2500
Columns 8 through 14
12.3300
8.6700
6.5000
8.0000
7.2500
7.5000
7.6700
4.2100
5.5400
4.9200
4.6000
5.4300
4.6000
4.9900
Column 15
9.1700
2.7900
>> net=newrbe(tet',pet');
232
>> v=sim(net,tet13')
v=
51.8582
29.6904
8.3577
10.0938
Pero calculando un ptimo, mejorado con relacin a los criterios que aplican
los investigadores Montgomery y Bowles (ellos aplican menor de 5 en el
ranking y mayor de 5 en nivel de agradable, por ejemplo, Menor de 4 en el
ranking y mayor de 6 en agradable), se obtiene:
>> netpto=newrbe(pet',tet');
>> tet1=[4 6];
>> netpto=newrbe(tet',pet');
>> v=sim(netpto,tet1')
v=
54.8727
25.6497
9.4778
9.9998
Es decir, se obtiene los valores siguientes: A: 54.8727; B: 25.6497;
C:9.4778; D:9.9998; que tambin es muy similar al resultado del trabajo
realizado por Montgomery y Bowles A: 55%, B: 25.67%, C:9.33%, D:10.0%;
con la diferencia que es mucho ms rpida su obtencin.
La metodologa que siguen los autores es la de trabajar con cada una de las
salidas por separado; elaborando las respectivas tablas de ANVA. Anlisis
de Variancia. En el caso de trabajar con las Redes Neuronales se obtienen
los mismos resultados que trabajando juntas las 2 variables de salida, por
tanto no se requiere hacer este paso adicional que si se hace con el
procedimiento que siguen los autores Montgomery y Bowles. El valor
mximo que llegan aplicando su metodologa corresponde a salidas de 4.7
en ranking y 5.9 en aceptacin.
Se puede apreciar que las corridas 4 y 7 son las mejores, lo cual es correcto
ya que son iguales y corresponden a A: 55%,B:25%,C:10% y D:10%;
teniendo en cuenta que lo mejor en la propuesta de clculo del trabajo de
Montgomery y Bowles, luego de diversas y tediosas transformaciones llegan
a A: 55%, B: 25.67%, C:9.33%, D:10.0%; que tambin se obtienen con Red
Desarrollada.
234
N1
N2
N3
65
55
20
28
10
FACTORES
Y1
65
20
10
65
20
65
28
65
28
65
Y2
1
63.00
2.80
3.05
64.79
2.85
3.19
61.77
2.70
3.10
10
60.93
2.70
2.90
28
10
60.00
2.55
2.80
65
28
61.65
2.90
3.10
65
20
63.27
2.95
3.19
65
20
10
62.82
2.76
3.15
55
20
10
67.89
3.53
3.73
10
55
20
72.02
3.28
3.45
11
55
28
75.13
3.45
3.20
12
55
28
10
70.10
3.28
3.06
13
55
28
10
67.67
3.12
2.95
14
55
28
72.40
3.12
3.25
15
55
20
70.47
3.19
3.32
16
55
20
10
66.67
3.40
3.25
235
Red
Red
de
F.B. Anlisis
Desarrollada,
Radial
Estadsticos
4.2.2.
NEWRBE
Tradicionales,
Anand
Error
al
simular
la 0
0.6
0.02
simulacin 0
0.6
entrada p1
Error de
global
0.02
3 capas
16 neuronas
16 neuronas
oculta
RD
neuronas
capas;
capa
N 3 capas
3 capas
de 2 neuronas
2 neuronas
salida
Red Inversa RI. N 3 capas
3 capas
2 neurona
16 neuronas
oculta
RI.
neuronas
capas;
capa
N 3 capas
3 capas
de 5 neuronas
5 neuronas
salida
Entradas optimizadas A:55.0
55.0
para
27.9054
valores B:27.8941
No calcula
236
7.0145
(80 y 1)
D:2.9906
2.9907
E:0
55.00
55
para
29.2070
28
6.8432
(74.3 y 3.2)
D:3.1456
3.1458
E:0.1305
0.1306
valores B:29.2058
>>pep =
65
20
10
65
20
65
28
65
28
10
65
28
10
65
28
65
20
65
20
10
55
20
10
55
20
55
28
55
28
10
55
28
10
55
28
1
237
55
20
55
20
10
>>tep =
63.0000
2.9250
64.7900
3.0200
61.7700
2.9000
60.9300
2.8000
60.0000
2.6750
61.6500
3.0000
63.2700
3.0700
62.8200
2.9550
67.8900
3.6300
72.0200
3.3650
75.1300
3.3250
70.1000
3.1700
67.6700
3.0350
72.4000
3.1850
70.4700
3.2550
66.6700
3.3250
238
>> sc=1;
>> [w1,b1,w2,b2,K]=newrbfcev15r(pep',tep',sc)
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,pep')
ts =
Columns 1 through 7
63.0000 64.7900 61.7700 60.9300 60.0000 61.6500 63.2700
2.9250
3.0200
2.9000
2.8000
2.6750
3.0000
3.0700
Columns 8 through 14
62.8200 67.8900 72.0200 75.1300 70.1000 67.6700 72.4000
2.9550
3.6300
3.3650
3.3250
3.1700
3.0350
3.1850
Columns 15 through 16
70.4700 66.6700
3.2550
3.3250
239
240
2.7750
2.7000
2.6250
2.7250
2.9250
2.8550
Columns 8 through 14
62.8200 67.8900 72.0200 75.1300 70.1000 67.6700 72.4000
3.1450
3.4050
3.3650
3.3650
3.2000
3.1200
3.1550
Columns 15 through 16
70.4700 66.6700
3.2950
1.7000
>> max(v)
Y1= 75.1300, que corresponde a Y2=3.3650
>> v=sim(net,pep1')
241
v=
63.0000
2.9250
>> % Si se desea obtener el mayor rendimiento, por ejemplo 80%, y la menor
cantidad de aceite en la cera, por ejemplo 1%.
>> %Con la red inversa
>> net=newrbe(TEP',PEP');
>> TEP1=[80 1];
>> V=sim(net,TEP1')
V=
55.0000
27.9054
7.0131
2.9907
-0.0099
v=
55.0002
29.2070
6.8482
3.1458
0.1306
Ello tambin corresponde a los niveles A2,B2,C2,D2,E1
3.5.3. Con Anlisis Estadstico Tradicional
Anand trabaj con cada una de las salidas por separado; elaborando las
respectivas tablas de ANVA. Anlisis de Variancia. En el caso de trabajar con
las Redes Neuronales se obtienen los mismos resultados que trabajando juntas
las 2 variables de salida, por tanto no se requiere hacer este paso adicional que
242
si se hace con el procedimiento que siguen Anand. El valor mximo que llegan
aplicando su metodologa corresponde a salidas de 74.3 en Y1 rendimiento y
3.2 en contenido de aceite en la cera. Obteniendo las siguientes ecuaciones de
regresin:
Para el rendimiento: Y1= Efecto promedio A2B2C2 + Ef. Prom. E1- Media
Total; con CME=0.60
Para el contenido ed aceite Y2 = Efecto promedio A2 +Ef.Prom. B2 Media
Total; con CME=0.02
Se puede apreciar que las corridas 11 es la mejor, lo cual es correcto ya que
corresponden a A2: 55, B2:28, C2:7, D2:3 y E1=0 teniendo en cuenta que lo
mejor en la propuesta de clculo del trabajo de Anand, luego de diversas y
tediosas operaciones al nivel ptimo de A2 B2 C2 D2 y E1; que tambin se
obtienen con la Red Desarrollada y con al NEWRBE.
243
CAPTULO IV
ANLISIS DE RESULTADOS
1. En conclusin de lo revisado sobre las redes neuronales artificiales RNA
Perceptrn, Adaline, Perceptrn Multicapa, RNA de Funcin de Base
Radial, RNA Recurrentes y RNA de Aprendizaje no Supervisado, son las
RNA Perceptrn Multicapa con aprendizaje de backpropagation, y las
Redes Neuronales de Base Radial (ver tablas 10 y 11) las ms adecuadas
para desarrollar una red neuronal artificial especfica para la mejora de la
calidad de diseo de procesos, que d mejores resultados que los
obtenidos con los diseos experimentales y las RNA ya existentes, para los
casos que se trabaje con varias variables dependientes e independientes y
en los que sus relaciones no sean lineales. Tanto la RNA Perceptrn
Multicapa con aprendizaje backpropagation como las RNA de Funcin de
Base Radial se caracterizan por ser aproximadores universales, ello explica
porque responden mejor, ya que pueden aproximar cualquier funcin
continua sobre un conjunto compacto de Rn. Las RNA Perceptrn Multicapa
con aprendizaje backpropagation son aproximadores de carcter global;
mientras que las RNA de Funcin de Base Radial son aproximadores de de
carcter local.
244
Capa de
.entrada
Capa
oculta
Capa de
salida
Entrada 1
Salida 1
Entrada 2
2
2
Salida 2
.o o o
.o o o
.o o o
Entrada n
n
Centro-Entr-K:
Distancias
Mahalanobis
Pesos w2
Funcin
Gauss
y umbral b1
Salida p
Funcin
Lineal y
umbral b2
(r ) e
2 d x ci K x ci
i
K E x mx m
T 1
Siendo: x los vectores de entrada, c los vectores que definen los centros de
la funcin de base radial y m el vector medio tomado del conjunto de los
vectores de entrada.
di= desviacin o amplitud de la funcin de base radial
La Funcin Gaussiana, que es la base de la propuesta es:
(r ) e
r
2
245
ik
umbrales:
u k (n) u k (n 1) 1 (s k (n) y k (n))
Siendo:
wik= los pesos de la capa oculta a la capa de salida.
nes la salida de la capa oculta
uumbrales de la capa de salida.
yk(n)= salidas de la capa de salida.
246
247
5.3. Redes de FBR Funcin de Base Radial para poder determinar valores de
entrada que permitan obtener una salida deseada (Calidad deseada).
Son dos Redes, una Inversa y otra Directa; construidas como sigue:
248
optimizados. Es decir se obtienen los valores que deben tener las entradas
para obtener la calidad deseada.
d. Construir una RNA Directa que tiene los datos de entrada reales como
entradas y los datos de salida reales como salida; es decir, se obtiene la
Red Directa con los datos iniciales.
e. Obtenida la Red Directa, all se pueden aplicar los datos obtenidos en c.
(valores de entrada optimizados), para obtener la salida deseada (calidad
deseada).
Con esta metodologa se tienen los valores de entrada del proceso que han
sido optimizados, dadas una salidas deseadas. Ello de acuerdo a lo que
esperan los clientes, para el caso de la calidad.
7. El desempeo de las RNA de Funcin de Base Radial fue mejor que las
dems RNA, dentro de ellas las de Diseo Exacto, tanto la Red NEWRBE
como la RNA Desarrollada. Dicho desempeo fue mejor que las RNA de
Regresin Generalizada GRNN; en especial por tener menor error. La Red
Desarrollada tuvo mejor desempeo que la Red NEWRBE de Matlab Neural
Networks.
8. El detalle de los clculos de las RNA con Funcin de Base Radial, del tipo
de Diseo Exacto Desarrollada es:
249
250
252
CONTRASTACIN DE HIPTESIS.
Por los resultados obtenidos se puede apreciar que ha quedado demostrada la
hiptesis planteada en la investigacin que sostiene que las Redes Neuronales
Artificiales con Funcin de Base Radial, que utilizan la distancia de
Mahalanobis, que es la Red Desarrollada, aplicadas a los diseos de
experimentos para mejora de la calidad de procesos dan mejores resultados
que los obtenidos mediante los mtodos de anlisis estadsticos tradicionales y
del Perceptrn Multicapa con aprendizaje Backpropagation.
254
CAPITULO V
DISCUSIN DE RESULTADOS
Kuehl(2001)
255
Por otro lado la Red Neuronal Artificial RNA por su forma de construccin
permite obtener relaciones no lineales. Es as que Wasserman (1993) sostiene
Las RNA realizan esencialmente la misma funcin: aceptan un conjunto de
inputs y producen un correspondiente conjunto de outputs, mediante una
operacin llamada vector de interrelacin. Todas las aplicaciones de RNA son
casos especiales del vector de interrelacin. Isasi y Galvan (2004) sostienen
la habilidad del perceptrn multicapa para aprender a partir de un conjunto de
ejemplos, aproximan relaciones no lineales, filtran ruido en los datos, etc. hace
que sea un modelo adecuado para abordar problemas reales, sin que esto
indique que sean los mejores aproximadores universales. Es decir, los
diversos mtodos de aprendizaje de las RNA, permiten desarrollar relaciones
muy complejas con base a las capas de neuronas, funciones de activacin,
umbrales, los ciclos de aprendizaje y los algoritmos de aprendizaje; as por
ejemplo, para el caso de los pesos, umbrales y funciones de activacin, son
tpicos los algoritmos de aprendizaje que sigue el Perceptrn Multicapa con
aprendizaje backpropagation. Donde, segn Isasi y Galvan (2004) los pesos
(w) y umbrales (u) de la capa de salida se calculan con los siguientes
algoritmos:
pesos:
256
C
i
nC 1
(r ) e
r 2
)
2
se
comport
mejor
que
los
Anlisis
de
Experimentos
257
Error
al Red
simular
Desarro-
entrada 1
llada
Anlisis
3.2.3.
3.2.4.
3.3.1
3.3.2.
3.3.3
3.4
3.5
0.0011
0.0004
No
0.300
1.22
Slo*
No
0.6
0.6
de Exp. hace
compara
calcula 0.1
0.2
Tradic.
promedios
0.6
0.6
0.1
0.2
este
clculo
Error
de Red
24.31
9.16
simulacin Desarroglobal
llada
Anlisis
96.,86
12.27
22.44
Slo
de Exp.
compara
Tradic.
promedios
77.47
*En este caso no calcula el error, slo compara promedios y permite obtener niveles de
factores recomendados.
Con relacin a las ventajas de las RNA con FBR Funcin de Base Radial sobre
las RNA con Perceptrn Multicapa y Aprendizaje BackPropagation, al respecto
Isasi y Galvan (2004) sostienen que la principal diferencia entre las redes de
base radial y el Perceptrn Multicapa radica en la funcin de activacin de las
neuronas ocultas de la Red. Las primeras utilizan funciones de base radial y las
segundas funciones de activacin sigmoidales, entre otras. Por otro lado Rao y
Srinivas (2007) sostienen que las RNA de Funcin de Base Radial, que fueran
258
i 1
i
2
2
(r ) e
f 1 ( x)
1
1 e x
Marquardt da un error de 13.96; ello porque las funciones de base radial por
ser de carcter local tienen mayor precisin en su aproximacin que las que
usa el perceptrn multicapa por tener una cobertura mucho ms grande; es as
que los cambios de pesos y umbrales, mecanismo de aprendizaje de las RNA
con FBR, se dan dentro de espacios ms reducidos, cosa que no ocurre con
las funciones que utiliza el perceptrn multicapa. Esta ventaja que apreciamos
en las RNA, en los ltimos aos se viene estudiando de manera muy intensa
en lo que se refiere a las funciones de optimizacin, es as que se vienen
desarrollando diversas funciones de optimizacin de base radial, y se vienen
aplicando en diversos campos, en especial en la estadstica. Sin embargo,
debe tenerse presente lo planteado por Isasi y Galvan (2004), que sostienen
cada una de las clases de aproximadores tienen sus propias caractersticas,
se conocen ciertas condiciones bajo las cuales un mtodo es preferible a otro,
pero en ningn caso se puede decir que un mtodo sea absolutamente mejor.
Sern las consideraciones prcticas de cada problema las que determinan la
eleccin de un aproximador u otro.
Asimismo, Demuth, Beale y Hagan (2007) presentan las redes de base radial
Diseo Exacto (newrbe), Diseo Ms Eficiente(newrb), Probabilstica (PNN) y
de Regresin Generalizada (GRNN), por definicin se descartaron la red newrb
porque trabaja creando una neurona a la vez, es decir, considerando una
variable a la vez lo cual es distinto a lo que se busca con en el diseo de
experimentos, que todas las variables se consideren a la vez. Por otro lado,
tambin se descartaron las redes PNN comparan las distancias entre los
centros y los vectores de entrada, con base a lo cual se producen los vectores
260
Se puede apreciar que entre las RNA de base radial existen diversos tipos de
funciones y diversos mecanismos de aprendizaje. La ms utilizada y la que
mejores resultados a dado hasta la fecha es la funcin de Gauss, la que se
utiliza para las funciones de distribucin normal; es por ello que en la
investigacin utilizamos dos variantes de su aplicacin: la de Regresin
Generalizada GRNN y las de Diseo Exacto DE (la Red Desarrollada y la
Newrbe), con funcin de Gauss como funcin de transferencia. Habindose
encontrado un mejor desempeo en la Red Desarrollada y la Newrbe, es as
que en los casos de 3.3.1. Montgomery (1991), 3.3.2. Schmidt y Launsby(1994)
y 3.3.3. Ross (1988); se aprecia que el desempeo de la RNA de FBR de
Diseo Exacto (Desarrollada y Newrbe) es mejor; en los tres casos el error
global para los dos tipos de Red Radial es cero, mientras que para la Red
GRNN el 3.3.1 tiene error de 11.0169 y en los otros dos su error es de cero.
Con relacin a los errores de la primera entrada en 3.3.1. y 3.3.3. las Redes de
Diseo Exacto tienen errores de cero y la Red GRNN errores de 2.9556 en
3.3.1 y 1.9803 -1.0770 en 3.3.3. En el caso 3.3.2. GRNN da error de cero para
la simulacin de la primera entrada mientras que las otras redes dan 0.00110.0004, que prcticamente es cero. El error ms alto de las RNA FBR GRNN
se explica por lo que sostienen Demuth, Beale y Hagan (2007), que en la
primera capa con iguales a las redes Newrbe de diseo exacto, pero en la
segunda capa los pesos se adecuan a los valores de salida t dados
inicialmente como patrones iniciales (pares de vectores entrada-salida) lo cual
es distinto a las redes NEWRBE ya que stas ltimas trabajan con el error
261
entre las salidas (dadas inicialmente) y las salidas calculadas por la red,
aplicando mnimos cuadrados; a ello adems hay que agregar que las GRNN
no tienen umbral en la capa de salida, cosa que si se da en las Newrbe. Todas
estas ventajas de las Redes Newrbe se consideraron para el diseo de la Red
Desarrollada.
todas las variables cosa que con Taguchi slo se obtuvo resultados para 3
variables, las ms significativas. Adems con las RNA se pudo calcular, con la
red inversa, los parmetros para obtener un valor superior de 0,0 de error, tanto
en la salida ancho como la salida longitud; es decir algo que no est dentro de
las posibilidades de los Mtodos Taguchi ni ningn sistema de Anlisis
Estadstico para el Diseo de Experimentos tradicional.
J
i 1
M
n 1
in
X ( n) C i
264
G x t i ci exp x t i
donde matriz inversa
x t
1
T
x ci K x ci
2
(r ) e
K E x mx m
T 1
siendo x los valores de entrada, c los vectores que definen los centros y m el
vector medio tomado del conjunto de los vectores de entrada. Lo cual es similar
a lo mencionado por Haykin.
Dada la importancia del tema, en un primer momento se trabaj el caso de
Vasconcelos(2003), presentado en 3.2.4., debido a que Matlab no tienen este
tipo de red, fue necesario desarrollar nuestra propia funcin de clculo con el
uso del Shell de Matlab, Neural Networks; la red desarrollada se denomin
newrbfcev15r y simnewrbfcev15rr, que se presentaron en detalle en 3.2.2. y el
Anexo 1. La red se construye con el programa newrbfcev15r; es decir, dadas
entradas p,t y amplitud (sc) se obtienen los parmetros de la Red vectores de
pesos w1 y w2 , vectores de umbrales b1 y b2, y distancias de centros K. Una
vez construida la red se utiliza el programa simnewrbfcev15rr para calcular las
265
salidas para un valor especfico p de entrada que se tenga. Todo ello hemos
denominado como al Red Desarrollada, que es una Red de Funcin de Base
Radial de Diseo Exacto, con centros calculados aplicando la distancia de
Mahalanobis, a fin de obtener mayor exactitud en los clculos.
Di1 xk k
h
Con relacin a los clculos del aprendizaje de la capa de salida con la matriz
seudoinversa o con mnimos cuadrados, es importante lo mencionado por Isasi
y Galvan (2004) que indican que Debido a que la salida de la red depende
linealmente de los pesos y umbrales, otro mtodo para el clculo de dichos
parmetros es el llamado mtodo de la seudo inversa (Broomhead y Lowe,
1988). Se trata de un mtodo que proporciona una solucin directa al problema
de optimizacin. Es decir se aplica la siguiente expresin matricial:
W G .S
donde W incluye tanto los pesos como los umbrales y G es una matriz que
contiene las salidas de la capa oculta y S las salidas.
Asimismo, Isasi y Galvan (2004), sostienen que en la fase supervisada (del
mtodo de aprendizaje hbrido de las Redes de Funcin de Base Radial) se
calculan los pesos y umbrales de la neurona de la red. En este caso, el objetivo
es minimizar las diferencias entre las salidas de la red y las salidas deseadas.
Por tanto un mtodo bastante simple y eficiente, que es el algoritmo e los
mnimos cuadrados. Para ello se aplican los algoritmos :
Para los pesos:
Wik (n) Wik (n 1) 1 ( s k (n) y k (n))i (n)
266
267
268
CONCLUSIONES Y RECOMENDACIONES
CONCLUSIONES:
1. La Hiptesis Planteada es verdadera; es decir, las Redes Neuronales
Artificiales con Funcin de Base Radial, que utilizan la distancia de
Mahalanobis, aplicadas a los diseos de experimentos para mejora de la
calidad dan mejores resultados dan mejores resultados que los obtenidos
mediante los mtodos de anlisis estadsticos tradicionales y del Perceptrn
Multicapa con aprendizaje Backpropagation. Es as que se construy la
Red Desarrollada, que se present en 3.2.2. y en el Anexo 2, que permiti
demostrar lo planteado en la hiptesis.
c. Dentro de las RNA de Funcin de Base Radial, las de Diseo Exacto (Red
Desarrollada y Red Newrbe) tuvieron un desempeo mejor que la de
Regresin Generalizada; en especial por tener menor error.
RECOMENDEACIONES
270
271
REFERENCIAS BIBLIOGRFICAS
BIBLIOGRAFA BSICA
1.-
2.-
3.-
4.-
5.-
6.-
7.-
8.-
9.-
272
BIBLIOGRAFA ESPECIALIZADA
1.-
2.-
3.-
4.-
5.-
6.-
Algorithm
for
Radial Basis
Function
Networks.
IEEE
8.-
9.-
273
HAYKIN,
Simon.
Neural
Networks.
Editorial
Macmillan
College
20.-
21.-
22.-
23.-
26.-
27.-
28.-
274
29.-
30.-
31.-
32.-
33.-
34.-
35.-
design.
Proceeedings
of
the
1999 Winter
Simulation
Conference. 1999.
36.-
37.-
38.-
39.-
40.-
41.-
275
42.-
43.-
44.-
SCHMIDT,S
LAUNSBY,R.
Understanding
Industrial
Designed
46.-
Designing
48.-
49.-
for
statistical
process
control.
Journal
of
Intelligent
Direcciones electrnicas:
Direcciones electrnicas sobre calidad
www.asq.org
http://www.asq.org/manufacturing/why-quality/overview.html
www.QualityWBT.com
www.tandf.co.uk/journals/onlinesamples.asp
www.taylorandfrancis.com
www.spcstat.com
www.chartrunner.com
www.statgraphics.com
www.statssoft.com
www.amstat.org
www.ieee-cis.org
www.gc.ssr.upm.es/inves/neural/ann2/anntutorial.html
http://www.ieee.org/theinstitute
http://technews.acm.org
http://www.acm.org/careernews/
http://portal.acm.org/cacm/current/
www.monografias.com/trabajos12/redneuro/redneuro.shtml
http://www.cs.utdallas.edu/
www.spectrum.ieee.org
www.pace.edu
www.nd.com
www.neuralware.com
ftp://ftp.sas.com/pub/neural/FAQ.html
277
ANEXO 1.
INFORME DE EXPERTO CONSULTADO SOBRE EL PROGRAMA DE
CMPUTO DE LA RED DESARROLLADA.
278
ANEXO 2.
PROGRAMA Y LISTADO COMPLETO QUE PRODUCE EL PROGRAMA
DESARROLLADO DE CREACIN DE RED NEURONAL ARTIFICIAL Y DE
SIMULACIN PARA APLICAR EN MEJORA DE LA CALIDAD.
I. PROGRAMA DE CREACIN DE LA RED.
CON DISTANCIA EUCLDEA
Function [w1,b1,w2,b2 ] =designrbe(p,t,spread)
[r,q] = size(p);
[s2,q]= size(t);
w1=p;
b1=ones(q,1)*sqrt(-log(.5))/spread;
a1=radbas(dist(w1,p).*(b1*ones(1,q)));
x=t/1; ones(1,q)];
w2=x(:,1:q);
b2=x(:,q+1);
CON DISTANCIA MAHALANOBIS (PROGRAMA DESARROLLADO)
function [w1,b1,w2,b2,K] = newrbfcev15r(p,t,sc)
[r,q] = size(p);
[s2,q] = size(t);
w1 = p';
b1 = ones(q,1)*sqrt(-log(0.5))/sc;
m=sum(p)/r;
copies=zeros(1,r);
M = m(1+copies,:),1;
H=(p-M)'*(p-M);
K=pinv(H);
D=dist(w1,p);
Z=K+D;
a1=radbas(Z.*(b1*ones(1,q)));
x=t/[a1; ones(1,q)];
w2=x(:,1:q);
b2=x(:,q+1);
279
280
40
25
235 235
45
10
40
25
205 205
45
25
>> t
t=
Columns 1 through 7
64.3300 73.4300 70.9500 42.7700 41.1500 39.4900 71.6200
Columns 8 through 14
78.4400 73.9600 65.5100 62.4800 59.0500 63.0200 64.1200
Columns 15 through 21
62.6700 44.1200 46.4600 32.3300 68.5900 70.8900 71.5300
Columns 22 through 24
41.0400 44.0200 41.8900
>> [w1,b1,w2,b2,K]=newrbfcev15r(p,t,sc)
w1 =
75 45 235 45 3 25 25
75 45 235 45 3 25 25
75 45 235 45 3 25 25
40 45 235 25 2 25 5
40 45 235 25 2 25 5
40 45 235 25 2 25 5
75 25 235 25 3 10 5
75 25 235 25 3 10 5
75 25 235 25 3 10 5
40 25 235 45 2 10 25
40 25 235 45 2 10 25
40 25 235 45 2 10 25
281
75
75
75
40
40
40
75
75
75
40
40
40
45
45
45
45
45
45
25
25
25
25
25
25
205
205
205
205
205
205
205
205
205
205
205
205
45
45
45
25
25
25
25
25
25
45
45
45
2
2
2
3
3
3
2
2
2
3
3
3
10
10
10
10
10
10
25
25
25
25
25
25
5
5
5
25
25
25
25
25
25
5
5
5
b1 =
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
w2 =
1.0e+005 *
Columns 1 through 7
0
0
0
0 2.8031
0 -0.0536
Columns 8 through 14
0
0 0.0328
0
0 0.3293
0
Columns 15 through 21
0 3.1373
0
0 -0.2457
0
0
Columns 22 through 24
1.4155
0
0
282
b2 =
-7.4180e+005
K=
1.0e-003 *
Columns 1 through 7
0.2047 0.2047 0.2047
0.2047 0.2047 0.2047
0.2047 0.2047 0.2047
-0.0199 -0.0199 -0.0199
-0.0199 -0.0199 -0.0199
-0.0199 -0.0199 -0.0199
-0.2653 -0.2653 -0.2653
-0.2653 -0.2653 -0.2653
-0.2653 -0.2653 -0.2653
-0.0633 -0.0633 -0.0633
-0.0633 -0.0633 -0.0633
-0.0633 -0.0633 -0.0633
0.0274 0.0274 0.0274
0.0274 0.0274 0.0274
0.0274 0.0274 0.0274
-0.0060 -0.0060 -0.0060
-0.0060 -0.0060 -0.0060
-0.0060 -0.0060 -0.0060
0.1245 0.1245 0.1245
0.1245 0.1245 0.1245
0.1245 0.1245 0.1245
0.0374 0.0374 0.0374
0.0374 0.0374 0.0374
0.0374 0.0374 0.0374
-0.0199
-0.0199
-0.0199
0.0922
0.0922
0.0922
0.0104
0.0104
0.0104
-0.0685
-0.0685
-0.0685
-0.0264
-0.0264
-0.0264
-0.0060
-0.0060
-0.0060
-0.0009
-0.0009
-0.0009
0.0158
0.0158
0.0158
-0.0199
-0.0199
-0.0199
0.0922
0.0922
0.0922
0.0104
0.0104
0.0104
-0.0685
-0.0685
-0.0685
-0.0264
-0.0264
-0.0264
-0.0060
-0.0060
-0.0060
-0.0009
-0.0009
-0.0009
0.0158
0.0158
0.0158
-0.0199
-0.0199
-0.0199
0.0922
0.0922
0.0922
0.0104
0.0104
0.0104
-0.0685
-0.0685
-0.0685
-0.0264
-0.0264
-0.0264
-0.0060
-0.0060
-0.0060
-0.0009
-0.0009
-0.0009
0.0158
0.0158
0.0158
-0.2653
-0.2653
-0.2653
0.0104
0.0104
0.0104
0.3658
0.3658
0.3658
0.0758
0.0758
0.0758
-0.0318
-0.0318
-0.0318
0.0021
0.0021
0.0021
-0.1446
-0.1446
-0.1446
-0.0632
-0.0632
-0.0632
Columns 8 through 14
-0.2653 -0.2653 -0.0633
-0.2653 -0.2653 -0.0633
-0.2653 -0.2653 -0.0633
0.0104 0.0104 -0.0685
0.0104 0.0104 -0.0685
0.0104 0.0104 -0.0685
0.3658 0.3658 0.0758
0.3658 0.3658 0.0758
0.3658 0.3658 0.0758
0.0758 0.0758 0.1064
0.0758 0.0758 0.1064
0.0758 0.0758 0.1064
-0.0318 -0.0318 -0.0093
-0.0318 -0.0318 -0.0093
-0.0318 -0.0318 -0.0093
0.0021 0.0021 0.0171
0.0021 0.0021 0.0171
0.0021 0.0021 0.0171
-0.1446 -0.1446 -0.0510
-0.0633
-0.0633
-0.0633
-0.0685
-0.0685
-0.0685
0.0758
0.0758
0.0758
0.1064
0.1064
0.1064
-0.0093
-0.0093
-0.0093
0.0171
0.0171
0.0171
-0.0510
-0.0633
-0.0633
-0.0633
-0.0685
-0.0685
-0.0685
0.0758
0.0758
0.0758
0.1064
0.1064
0.1064
-0.0093
-0.0093
-0.0093
0.0171
0.0171
0.0171
-0.0510
0.0274
0.0274
0.0274
-0.0264
-0.0264
-0.0264
-0.0318
-0.0318
-0.0318
-0.0093
-0.0093
-0.0093
0.0984
0.0984
0.0984
0.0104
0.0104
0.0104
-0.0547
0.0274
0.0274
0.0274
-0.0264
-0.0264
-0.0264
-0.0318
-0.0318
-0.0318
-0.0093
-0.0093
-0.0093
0.0984
0.0984
0.0984
0.0104
0.0104
0.0104
-0.0547
283
-0.0510
-0.0510
-0.0189
-0.0189
-0.0189
-0.0510
-0.0510
-0.0189
-0.0189
-0.0189
-0.0547
-0.0547
-0.0068
-0.0068
-0.0068
-0.0547
-0.0547
-0.0068
-0.0068
-0.0068
-0.0060
-0.0060
-0.0060
-0.0060
-0.0060
-0.0060
0.0021
0.0021
0.0021
0.0171
0.0171
0.0171
0.0104
0.0104
0.0104
0.0843
0.0843
0.0843
-0.0248
-0.0248
-0.0248
-0.0777
-0.0777
-0.0777
0.1245
0.1245
0.1245
-0.0009
-0.0009
-0.0009
-0.1446
-0.1446
-0.1446
-0.0510
-0.0510
-0.0510
-0.0547
-0.0547
-0.0547
-0.0248
-0.0248
-0.0248
0.1483
0.1483
0.1483
0.0253
0.0253
0.0253
0.1245
0.1245
0.1245
-0.0009
-0.0009
-0.0009
-0.1446
-0.1446
-0.1446
-0.0510
-0.0510
-0.0510
-0.0547
-0.0547
-0.0547
-0.0248
-0.0248
-0.0248
0.1483
0.1483
0.1483
0.0253
0.0253
0.0253
0.1245
0.1245
0.1245
-0.0009
-0.0009
-0.0009
-0.1446
-0.1446
-0.1446
-0.0510
-0.0510
-0.0510
-0.0547
-0.0547
-0.0547
-0.0248
-0.0248
-0.0248
0.1483
0.1483
0.1483
0.0253
0.0253
0.0253
284
0.0253
0.0253
0.0960
0.0960
0.0960
0.0253
0.0253
0.0960
0.0960
0.0960
0.0253
0.0253
0.0960
0.0960
0.0960
>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,p)
ts =
Columns 1 through 7
69.5700 69.5700 69.5700 41.1367 41.1367 41.1367 74.6733
Columns 8 through 14
74.6733 74.6733 62.3467 62.3467 62.3467 63.2700 63.2700
Columns 15 through 21
63.2700 40.9700 40.9700 40.9700 70.3367 70.3367 70.3367
Columns 22 through 24
42.3167 42.3167 42.3167
>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,pe)
ts =
67.5782
285
ANEXO 3
Detalle de clculos en Perceptrn Multicapa con aprendizaje
Backpropagation
un
caso
simple
se
perceptrn
multicapa
con
aprendizaje
backpropagation:
Dados:
Entrada de 4 vectores p = [-1 -1 2 2; 0 5 0 5];
y salida t = -1 -1 1 1 ]
Encontrar la red neuronal: perceptron multicapa con backpropagation que
permite obtener la salida t dados las entradas p.
Para el primer ciclo se tiene los siguiente trabajando con Matlab Neural
Networks(/); y corroborando resultados con calculadora de mano:
/net= newff(minmax(p),[3,1],{tansig,purelin},traingd);
La arquitectura de la red se presenta en la Figura 39.
286
W11
X1W31
W12
W32
W21
W22
X2
W23 W13
W33
/minmax(p)
/= -1 2; 0 5
/net.IW{1,1}
/= -1.2071 0.6452; 1.6014 -0.1324; -0.9043 -0.8040
Pesos de capa de entrada a capa oculta, calculados por Matlab al azar
/net.lW{2,1}
/= 0.6924 0.0503 -0.5947
Pesos de capa oculta a la capa de salida, calculados por Matlab al azar
/net.b{1}
/ = 1.4154 ; 0.0503; -0.5947
Umbrales de capa de oculta, calculados por Matlab al azar
/net.b{2}
/ = 0.3443
Umbral de capa de salida, calculado por Matlab al azar
Comandos en Matlab para el entrenamiento:
/net.trainParam.show=1;
/net.trainParam.lr=0.1;
/net.trainParam.goal=0.001;
/net.trainParam.epochs=1;
/[net,tr]= train(net,p,t)
287
1.3148
Clculos con calculadora o con Matlab, pero sin el Neural Networks; para
apreciar los clculos que se dan al interior de un ciclo de este tipo de red y
de esa forma poder desarrollar nuestro propio software:
CALCULO DE LOS PESOS DE LA CAPA OCULTA
A LA CAPA DE
SALIDA
Clculo de salida de capa oculta a1:
a1 = f1 (W 1 p + b1) ; donde f1 es tansig (funcin tg hiperblica)
Producto de los pesos por entrada W 1 p
X1 = [ -1.2071
0.6452 ] [-1 -1 2 2]
1.6014
-0.1324
-0.9043
-0.8040
0 5 0 5
288
X1 = [ 1.2071
4.4331
-2.4142
0.8118 ]
-1.6014
-2.2634
3.2028
2.5408
0.9043
-3.1157
-1.8086
-5.8286
X2 =
1.4154
1.4154
1.4154 ]
-0.4697 -0.4697
-0.4697
-0.4697
0.0372
0.0372
0.0372
0.0372
[ 2.6225 5.8485
-0.9988
2.2272 ]
-2.0711
-2.7331
2.7331
2.0711
0.9415
-3.0785
-1.7714
-5.7914
[ 0.9895 1.0000
-0.7611
0.9770 ]
-0.9687
-0.9916
0.9916
0.9687
0.7359
-0.9958
-0.9438
-1.0000
289
0.4285
1.6642]
m= suma ([ t] - [a2]) 2
(-1-0.5431 )2 + (-1-1.5790 )2 +(1-0.4285 )2 + (1-1.6642 )2
= (-1.5431 )2 + (-2.5790 )2 +(0.5715 )2 + (-0.6642 )2
= 9.8002
m/4 = 9.8002/4 = 2.4501 (valor de matlab, calculado con calculadora)
Siguiendo con el clculo de los nuevos pesos para t+1 de la capa oculta a la
capa de salida tenemos:
W2(t+1)=w2(t)+*(-2)/(4)*(F.2(n2)(t objetivo a2 salida red)* a1 salida
capa oculta); donde (F.2(n2)= 1 para la funcin lineal; s2 = (-2) (F.2(n2)(t
objetivo a2 salida red)
Que es la unin de las dos ecuaciones, respectivas, de los pasos 4.1 y 4.3
presentadas anteriormente en el Marco Terico, donde C se ha
reemplazado por el superndice 2.
= 0. 6924 - 0.1/4*2 *suma([ -1.5431 -2.5790 0.5715 -0.6642 ] * [0.9895] )
1.0000
-0.7611
0.9770
= 0.6924 + 0.1/4*2 suma [-1.5269] = 0.6924 +0.1/4*2*(-5.1898)
-2.5790
-0.4350
-0.6489
290
291
Igual para los dems pesos de la capa entrada a la capa oculta: 1.6014
para obtener 1.6016; y de -0.1324 para obtener -0.1335;
Asimismo, para -0.9043 para a obtener -0.9297 y de -0.8040 para obtener 0.8007.
292
ANEXO 4
Detalle de clculos con Redes Neuronales con Funciones de Base
Radial
A continuacin se presentan los clculos que se dan para una Red
Neuronal RN con funciones de base radial, tanto para el caso de
RN
293
C.Entrada
C.Oculta
C.Salida
Si W
No W
FBR
294
295
0.8326
/netprod(F1(1,:),net.b{1}')
/ =0
0.8326
1.6651
/netprod(F1(2,:),net.b{1}')
/ = 0.8326
0.8326
296
/netprod(F1(3,:),net.b{1}')
/=.6651
0.8326
0.5000
0.0625
/radbas(netprod(F1(2,:),net.b{1}'))
/= 0.5000
1.0000
0.5000
/radbas(netprod(F1(3,:),net.b{1}'))
/ = 0.0625
0.5000
1.0000
0.5000
0.0625
0.5000
1.0000
0.5000
0.0625
0.5000
1.0000
0.5000
0.0625
1.0000
0.5000
1.0000
0.5000
1.0000
0.0625
0.5000
1.0000
1.0000
297
/ =0.5000
0.5000
1.5000
/netprod(dist(net.iw{1,1},Pe),net.b{1})
/= 0.4163
0.4163
1.2488
/radbas(netprod(dist(net.iw{1,1},Pe),net.b{1}))
/= 0.8409
0.8409
0.2102
/Z=[0;-0.6533;5.5467];
/R=radbas(netprod(dist(net.iw{1,1},Pe),net.b{1}));
/Y=netprod(R,Z)
/=
-0.5494
1.1661
/sum(Y)
/= 0.6167
/Ys=sum(Y)+net.b{2}
/Ys =2.0967
298
3.6000
6.7000
/ net.b{2}
ans =
[]
Los parmetros de pesos y umbrales son por definicin daos en los datos de
entrada y salida. El umbral de la capa de salida no existe por definicin
Los clculos para obtener el valor simulado son:
299
/ F1=dist(net.iw{1,1},Pe)
/F1 =
0.5000
0.5000
1.5000
/ radbas(netprod(F1(1,:),net.b{1}(1,1)'))
ans =
0.8409
/ radbas(netprod(F1(2,:),net.b{1}(2,1)'))
ans =
0.8409
/radbas(netprod(F1(3,:),net.b{1}(3,1)'))
ans =
0.2102
/A=[radbas(netprod(F1(1,:),net.b{1}(1,1)'));radbas(netprod(F1(2,:),net.b{1}(2,1)')
);radbas(netprod(F1(3,:),net.b{1}(3,1)'))]
A=
0.8409
0.8409
0.2102
/ Aout=normprod(net.lw{2,1},A)
Aout =
3.0111
300