Anda di halaman 1dari 489

Universidad Jaume I

Departamento de Ingeniera y Ciencia


de los Computadores

Hacia un Diseo ptimo


de la Arquitectura
Multilayer Feedforward

Tesis Doctoral
Realizada por: Mercedes Fernndez Redondo
Dirigida por: Carlos A. Hernndez Espinosa
Castelln, 11 de Septiembre de 2001

Esta Tesis Doctoral ha sido realizada parcialmente con el apoyo de


los siguientes proyectos:
P1A97-19 de la Fundaci Caixa-Castell y la Universidad
Jaume I, titulado Redes neuronales: comparacin de mtodos de
seleccin de informacin de entrada y algoritmos de aprendizaje
que varan el nmero de unidades ocultas
GV99-75-1-14 de la Generalitat Valenciana, titulado
Optimizacin de la Capacidad de Generalizacin en redes
neuronales de tipo Multilayer Feedforward.

Agradecimientos
Quiero expresar mi agradecimiento a todas aquellas
personas que me han apoyado y me ayudaron durante la
realizacin de esta Tesis Doctoral.
En especial a Dr. Carlos Hernndez Espinosa, director de
esta Tesis Doctoral, sin cuyos consejos y colaboracin no
hubiese sido posible este trabajo. Tambin quiero expresarle
mi agradecimiento por su inters en la creacin y desarrollo
del Grupo de Investigacin de Redes Neuronales y
Computacin Suave, al cual pertenezco.
Gracias tambin a mi familia y amigos.

NDICE

PRLOGO. Objetivos y Resumen de la Tesis Doctoral


CAPTULO 1. Introduccin
1.1. Introduccin
1.2. Definicin de Red Neuronal y algoritmo de aprendizaje
1.3. Motivaciones de la Investigacin
1.4. Arquitectura MF y algoritmo Backpropagation
1.5. Descripcin de las Bases de Datos
1.6. Herramientas de trabajo: PC, SUN, Matlab
1.7. Bibliografa del Captulo

1
2
5
11
18
24
26

CAPTULO 2. Procedimientos para el uso de entradas desconocidas


2.1. Introduccin
28
2.2. Procedimientos de utilizacin de entradas desconocidas:
30
2.2.1. Codificacin mediante un valor
30
2.2.2. Codificacin utilizando Aritmtica de Intervalos
30
2.2.2.1 Operaciones con aritmtic a de intervalos
32
2.2.2.2 Multilayer Feedforward c on aritmtica de
intervalos
33
2.2.2.3 Backpropagation con arit mtica de intervalos
37
2.2.2.3.1 Algoritmo de Hernndez
38
2.2.2.3.2 Algoritmo de Ishibuchi
42
2.2.2.3.3 Medidas de eficiencia
46
2.2.3. Codificacin mediante Probabilidades
47
2.2.4. Codificacin de entradas binarias, que no utiliza
entradas desconocidas en el entrenamiento
50
2.3. Metodologa
51
2.3.1. Eleccin de bases de datos
51
2.3.2. Eleccin de la arquitectura
53
2.3.3. Proceso de entrenamiento y test
57
2.4. Resultados experimentales
58
2.5. Conclusiones
75
2.6. Bibliografa del Captulo
77

- i-

NDICE

CAPTULO 3. Mtodos de seleccin de la informacin de entrada a la


red neuronal
3.1. Introduccin
80
3.2. Mtodos de seleccin de entradas basados en ARNMF
85
3.2.1. Primer grupo
87
3.2.2. Segundo grupo
88
3.2.3. Tercer grupo
93
3.2.4. Cuarto grupo
94
3.2.5. Quinto grupo
95
3.2.6. Sexto grupo
99
3.2.7. Sptimo grupo
100
3.3. Mtodos de seleccin de entradas basados en ACE
106
3.3.1. Teora de la Informacin
106
3.3.2. Distancias dentro y entre clases
112
3.3.3. Lgica difusa
115
3.4. Mtodos de seleccin de entradas basados en ARE
117
3.5. Algoritmo de aprendizaje mediante gradientes conjugados
117
3.6. Uso de Weight Decay en los mtodos ARNMF
121
3.7. Metodologa
123
3.8. Resultados Experimentales
131
3.9. Aplicacin a un problema real: patologa de la voz
145
3.10. Conclusiones
155
3.11. Bibliografa del Captulo
157
3.12. Apndice del Captulo
161
CAPTULO 4. Algoritmos de aprendizaje para la seleccin del nmero
de unidades de la capa oculta de la red durante el
proceso de aprendizaje
4.1. Descripcin del Problema
165
4.2. Descripcin de los diferentes mtodos
172
4.2.1. Fase constructiva: determinacin de nuevos pesos
175
4.2.2. Fase de podado: eleccin de la neurona a podar
176
4.3. Metodologa
188
4.4. Desarrollo Experimental
192
4.5. Conclusiones
198
4.6. Bibliografa del Captulo
199
4.7. Apndice del Captulo
201
CAPTULO 5. Estudio de la influencia en la capacidad de generalizacin de la red del nmero de capas ocultas
5.1. Descripcin del Problema
207
5.2. Arquitectura Multilayer Feedforward con dos capas ocultas
210
5.3. Metodologa
213
5.4. Desarrollo Experimental
215
5.5. Conclusiones
218
5.6. Bibliografa del Captulo
219

- ii -

NDICE

CAPTULO 6. Mtodos de inicializacin de pesos para Redes


Multilayer Feedforward
6.1. Descripcin del Problema
6.2. Descripcin de los diferentes mtodos
6.2.1. Mtodo 1
6.2.2. Mtodo 2
6.2.3. Mtodo 3
6.2.4. Mtodo 4
6.2.5. Mtodo 5
6.2.6. Mtodo 6
6.2.7. Mtodo 7
6.2.8. Mtodo 8
6.2.9. Mtodo 9
6.2.10. Mtodo 10
6.2.11. Mtodo 11
6.2.12. Mtodo 12
6.2.13. Mtodo 13
6.3. Metodologa
6.4. Desarrollo Experimental
6.5. Conclusiones
6.6. Bibliografa del Captulo
6.7. Apndice del Captulo

221
226
226
226
227
230
231
233
234
236
240
243
248
253
256
261
265
273
274
277

CAPTULO 7. Conclusiones y trabajos futuros

285

CAPTULO 8. Referencias bibliogrficas

291

APNDICES
I. Apndices del Captulo 2
I.1. Resultados de los mtodos 1,4 y 5
I.2. Resultados de los mtodos 2 y 3
I.3. Comparacin entre los mtodos 2 y 3
II. Apndices del Captulo 3
II.1. Ordenacin de las entradas para ARNMF y ACE
II.2. Ordenacin de las entradas para ARNMF&WD
II.3. Eficiencias para los mtodos ARNMF y ACE
II.4. Eficiencias para los mtodos ARNMF&WD
II.5. Comparacin entre mtodos ARNMF y ACE
II.6. Comparacin entre mtodos ARNMF con y sin WD

- iii -

305
305
312
350
361
361
378
383
413
424
459

NDICE

- iv -

Prlogo

OBJETIVOS Y RESUMEN DE LA TESIS DOCTORAL

Objetivos y Resumen de la Tesis Doctoral


El objetivo de esta Tesis Doctoral ha sido bsicamente el de realizar un
estudio comparativo sobre los diferentes mtodos existentes para resolver diversos
aspectos referentes al diseo de la arquitectura de red neuronal Multilayer
Feedforward, en problemas de clasificacin. Hemos elegido la arquitectura
Multilayer Feedforward por que es una de las ms utilizadas a la hora de realizar
aplicaciones en el campo de las Redes Neuronales.
Los aspectos de diseo de la arquitectura de red neuronal estudiados han
sido:

Codificacin de la informacin o entradas desconocidas en la red.


Seleccin de la informacin de entrada a la red.
Seleccin del nmero de unidades ocultas de la red.
Influencia en la capacidad de generalizacin del nmero de capas ocultas.
Inicializacin de la red.

En cada uno de los aspectos se ha realizado un estudio comparativo de los


diferentes mtodos existentes para resolver dicho problema. Todos los aspectos
estn ampliamente relacionados entre s, puesto que en todos ellos el objetivo
final es seleccionar una arquitectura de red idnea para realizar una determinada
aplicacin; entendiendo por idnea, la seleccin del nmero apropiado de capas
ocultas, de unidades de la capa oculta, de unidades en la capa de entrada y la
obtencin de una buena capacidad de generalizacin.

- v-

OBJETIVOS Y RESUMEN DE LA TESIS DOCTORAL

En el primer captulo, se encuentra una pequea introduccin a conceptos de


Redes Neuronales (definicin, problemas de diseo, arquitecturas usadas) y a las
herramientas de trabajo utilizadas en el desarrollo de esta Tesis Doctoral, tales
como bases de datos, equipamiento y software. En l se justifica de forma ms
detallada la motivacin de esta investigacin.
En el segundo captulo, se describe la investigacin realizada sobre el
problema de codificacin de entradas desconocidas. Se ha realizado un estudio
comparativo de 5 mtodos diferentes para la utilizacin de entradas desconocidas
y tras un estudio experimental bastante meticuloso se ha propuesto uno de estos
mtodos como el ms eficiente.
En el tercer captulo, se realiza un estudio sobre la importancia de la
informacin de entrada, analizndose diferentes mtodos existentes de seleccionar
de forma automtica la informacin de entrada a la red. Se han comparado 26
mtodos: 19 basados en el anlisis de la red neuronal Multilayer Feedforward y 7
basados en el anlisis del conjunto de entrenamiento. Se ha medido la eficiencia
de los mismos aplicndolos a 15 problemas de clasificacin. Como resultado,
obtenemos la ordenacin de los mtodos segn su eficiencia, recomendando
finalmente el uso de los mejores a la hora de realizar una aplicacin concreta. En
el captulo tambin se menciona un ejemplo de aplicacin real.
En el captulo 4, se muestra un estudio comparativo entre los algoritmos de
aprendizaje avanzados, que seleccionan de forma dinmica el nmero de unidades
(neuronas) de la capa oculta de la red durante el proceso de aprendizaje. Se
diferencia entre dos tipos de procedimientos: constructivos y de podado.
Experimentalmente, se combin el uso de los mismos de forma que la seleccin
final de la arquitectura se realiz aadiendo primero neuronas a la capa oculta y
luego testeando si durante este proceso constructivo se excedi el nmero de
neuronas idneo y en su caso eliminndolas. Tambin concluimos cul es el mejor
procedimiento a seguir para resolver este problema.
En el captulo 5, se estudia de qu manera influye en la capacidad de
generalizacin de la red el nmero de capas ocultas seleccionado para la
arquitectura de la misma. La conclusin final fue que la introduccin de ms de
una capa oculta deteriora la capacidad de generalizacin.
En el captulo 6, se aborda el problema de inicializacin de la red neuronal
previa a su entrenamiento, en concreto de los pesos. Como veremos, la
inicializacin de los pesos influye en diferentes aspectos de la red como son: su
capacidad de generalizacin, la velocidad de convergencia y el xito en la
convergencia. Mediante un estudio comparativo entre los diferentes mtodos que

- vi -

OBJETIVOS Y RESUMEN DE LA TESIS DOCTORAL

se encuentran en la bibliografa concluiremos qu procedimientos resultan ms


ventajosos desde los tres puntos de vista y recomendaremos su utilizacin.
En el captulo 7, se encuentra un resumen ms extenso de las conclusiones y
aportaciones de esta Tesis Doctoral, as como posibles trabajos de investigacin
futuros y reas de aplicabilidad experimental de los resultados obtenidos.
Finalmente, en el captulo 8, se recogen las referencias bibliogrficas que se
aportaron el final de cada captulo ordenadas alfabticamente.
En el apndice general de la Tesis se ha incluido debido a su extensin
algunos resultados experimentales correspondientes al segundo y tercer captulos.

- vii -

OBJETIVOS Y RESUMEN DE LA TESIS DOCTORAL

- viii -

Captulo 1

INTRODUCCIN
1.1. Introduccin
1.2. Definicin de Red Neuronal y algoritmo de
aprendizaje
1.3. Motivaciones de la Investigacin
1.4. Arquitectura MF y algoritmo Backpropagation
1.5. Descripcin de las Bases de Datos
1.6. Herramientas de trabajo: PC, SUN, Matlab
1.7. Bibliografa del Captulo

1.1. Introduccin
En este captulo nos ocuparemos slo de aquellas cuestiones sobre redes
neuronales que son imprescindibles para la investigacin que pretendemos
realizar, puesto que nuestro inters se centra en mejorar diversos aspectos del
diseo de la red neuronal Multilayer Feedforward.
Veremos en primer lugar algunas definiciones clsicas de red neuronal con
la intencin de aportar una pequea base sobre el tema. En segundo lugar,
describiremos detalladamente las motivaciones de esta investigacin destacando
el gran inters de realizar estudios comparativos entre diversos mtodos existentes
para resolver un determinado problema. Posteriormente, se describir la
arquitectura Multilayer Feedforward y el algoritmo ms empleado usualmente en
su entrenamiento, Backpropagation.
Finalmente, se presentan las herramientas de trabajo empleadas en el
desarrollo de la Tesis Doctoral: bases de datos, software y equipamiento (PCs).

-1-

1.2. DEFINICIN DE RED NEURONAL Y ALGORITMO DE APRENDIZAJE

As mismo tambin, incluimos una seleccin bibliogrfica bsica sobre redes


neuronales de inters general.

1.2. Definicin de Red Neuronal y algoritmo de


aprendizaje
En la bibliografa pueden encontrase muchas y variadas definiciones de red
neuronal. Citamos aqu dos de las que a nuestro parecer son ms representativas.
La primera de ellas, podemos encontrarla en la referencia [4] y es la
siguiente:
Una definicin de Red Neuronal:
Una Red Neuronal es un sistema computacional, implementado bien por
hardware o software, que trata de imitar las habilidades computacionales de los
sistemas biolgicos, mediante el uso de un gran nmero de simples neuronas
artificiales interconectadas.
Las neuronas artificiales son emulaciones sencillas de las neuronas
biolgicas, toman la informacin de un sensor u otra neurona artificial, realizan
operaciones muy elementales con estos datos y pasan los resultados de esta
informacin a otras neuronas artificiales.
Las redes neuronales operan procesando los datos mediante sus neuronas
en la manera descrita. Usan a la vez una propagacin en paralelo y en serie de la
informacin.
Las tres principales caractersticas que describen a una red neuronal son:
estructura, dinmica y aprendizaje.
En esta definicin, se observa el inters por modelar el comportamiento de
nuestro cerebro mediante unidades que realicen operaciones sencillas y que estn
muy interconectadas entre s al igual que nuestras neuronas. Tambin se da una
nocin de su uso, es decir, es necesario definir una estructura que indique de qu
forma se comunican entre s las unidades de la red, hay que especificar como
realizan la comunicacin y para que simulen el comportamiento del cerebro es
necesario hacerlas aprender de alguna manera (algoritmo de aprendizaje).
En la referencia [5] podemos encontrar la segunda definicin.

-2-

1.2. DEFINICIN DE RED NEURONAL Y ALGORITMO DE APRENDIZAJE

Otra definicin de Red Neuronal.


Una red neuronal es una estructura de procesado de la informacin
distribuida y en paralelo, compuesta de elementos que realizan el tratamiento de
la informacin.
Dichos elementos pueden poseer una memoria local, y deben llevar a cabo
operaciones de proceso de la informacin localizadas. Adems, estarn
interconectadas entre s va canales unidireccionales de propagacin de la
informacin, llamados conexiones.
Cada elemento procesador, tiene una nica salida que se divide en muchas
conexiones colaterales, transportando cada una de ellas la misma seal (la seal
de salida del elemento procesador). Esta seal puede ser de cualquier tipo
matemtico; el tratamiento de la informacin que se lleva a cabo dentro de cada
elemento procesador, puede ser definido arbitrariamente con la restriccin de
que debe ser completamente local. Es decir, debe depender slo de los valores
actuales de las seales de entrada que llegan a ese elemento procesador, va
conexiones, o de valores acumulados en la memoria del elemento procesador.
Esta definicin es mucho ms abstracta, tiene una visin ms matemtica.
Se habla de unidades de proceso de informacin que tratan seales. Se insiste
sobre la amplia interconexin, una unidad calcula su salida (la cual propaga a
otras unidades) usando informacin interna (que le lleg de otras unidades).
En ambas definiciones se habla principalmente de la estructura de la red
pero no se dice nada sobre su aprendizaje, podramos utilizar como algoritmo de
aprendizaje cualquiera que permita variar los parmetros libres de la red (valores
de las conexiones o los pesos). As como tambin, en ambas definiciones se habla
de procesado serie y paralelo de la informacin.
Podemos deducir varias ideas a partir de estas definiciones.
Una red neuronal posee una estructura. Se entiende por estructura la
descripcin matemtica de la red y su funcionamiento, no la manera en que se
implementa (que puede ser por software o hardware).
En la descripcin matemtica, se debe determinar la configuracin de las
unidades (neuronas) e interconexiones entre ellas y describir de que forma se
propagan las seales en la estructura indicando las operaciones que realizan.
Adems, en la estructura habr unidades de entrada (por las que se recibe
informacin externa) y unidades de salida (por las que se proporciona la
informacin resultante de la red).
-3-

1.2. DEFINICIN DE RED NEURONAL Y ALGORITMO DE APRENDIZAJE

Internamente, la red puede poseer otras neuronas o unidades que se


agruparn en diferentes capas (transmisin paralela de la informacin) segn sea
la funcin matemtica que realicen.
Las unidades de la red se comunican entre s mediante conexiones, a las
cuales como veremos ms adelante, se les asocia un valor denominado peso.
Con esto, tenemos bsicamente determinados los elementos de una red
neuronal.
Sin embargo, necesitamos un mecanismo que ayude a que la red neuronal
aprenda a realizar o resolver una cierta tarea, como ocurre con las neuronas de
nuestro cerebro. Para ello, se utiliza lo que se llama algoritmo de aprendizaje. La
tarea del algoritmo ser adaptar los valores de las interconexiones de las neuronas
(pesos) durante el llamado proceso de aprendizaje para que al final del proceso la
red sea capaz de solucionar un problema de forma ms o menos eficiente.
El proceso de aprendizaje de la red puede ser generalmente de varios tipos:
supervisado o no supervisado. En el primer caso la red adapta sus parmetros
utilizando en el proceso de aprendizaje lo que se llaman ejemplos de
entrenamiento, es decir, un conjunto de datos de entrada de los cuales se conoce la
respuesta (o salida) que deseamos que proporcione la red. En el segundo, se tienen
patrones de entrada a la red pero no se usa ninguna respuesta o salida deseada
(objetivo del patrn).
En esta tesis, nos hemos centrado en el uso de la red neuronal Multilayer
Feedforward generalmente usando el algoritmo Backpropagation. Ambos, estn
descritos en el apartado 1.4 de este captulo.

-4-

1.3. MOTIVACIONES DE LA INVESTIGACIN

1.3. Motivaciones de la Investigacin


La investigacin sobre Redes Neuronales ha experimentado un gran auge
desde el ao 1987 en el que se celebr la primera conferencia internacional abierta
sobre redes neuronales (International Joint Conference on Neural Networks,
IJCNN87).
En los ltimos aos, se han realizado con xito un gran nmero de
aplicaciones basadas en Redes Neuronales en campos tan variados como
comercio, ciencia, industria, medicina, etc.
Una revisin amplia sobre estos aspectos puede encontrarse en la referencia
[4]. Se trata de un texto bastante antiguo (del ao 1990) pero da una idea de la
gran variedad y cantidad de aplicaciones sobre este tema.
Las aplicaciones sobre Redes Neuronales van adquiriendo progresivamente
gran inters comercial de forma que se van transfiriendo a los sectores
productivos o las reas socioeconmicas. Al mismo tiempo que la calidad y
correccin de las soluciones basadas en redes neuronales es en general igual o
superior a la que puedan aportar sistemas basados en otras tecnologas.
Si hacemos una clasificacin muy general, mediante redes neuronales
pueden resolverse bsicamente dos tipos de problemas.
-

Problemas de clasificacin

Problemas de aproximacin funcional.

En los primeros, se pretende distinguir entre categoras, clases de objetos o


situaciones. Ejemplos de problemas de clasificacin son la identificacin de fallos
o defectos, el diagnstico mdico de enfermedades, etc.
Ejemplos del segundo tipo son la prediccin de series temporales (de
utilidad en la prediccin de demandas como la energa elctrica, o la prediccin de
valores burstiles), la identificacin de sistemas, la realizacin de sistemas de
control, etc.
Como vemos, el mbito de aplicacin de las redes neuronales es muy
amplio, puesto que casi cualquier problema se puede encuadrar como un caso de
clasificacin o de aproximacin funcional.
Las redes neuronales (en sistemas que utilizan algoritmos supervisados)
tienen adems la caracterstica de ser capaces de llegar a resolver un problema tan
slo basndose en ejemplos concretos (informacin concreta) de resolucin de

-5-

1.3. MOTIVACIONES DE LA INVESTIGACIN

dicho problema. Solo necesitan una muestra representativa de los ejemplos de


resolucin del problema, esto es lo que se denomina conjunto de entrenamiento.
Tras un proceso de aprendizaje con dichas muestras las redes neuronales
tienen la capacidad de responder correctamente a otros ejemplos del problema
relativamente similares a los del conjunto de entrenamiento pero que jams han
sido utilizados antes por la red. A esa capacidad de aprendizaje de la red es a lo
que se denomina capacidad de generalizacin, y como veremos ms adelante, es
probablemente la caracterstica ms importante de una red neuronal y lo que las
hace verdaderamente tiles. A mayor capacidad de generalizacin ms eficiente se
considera la solucin suministrada por la red neuronal.
Como estudiaremos ms adelante, los factores que influyen en la capacidad
de generalizacin de una red neuronal son muchos, aunque bsicamente se pueden
resumir en tres: su arquitectura (o estructura interna), el algoritmo de aprendizaje
que se emplee para realizar el entrenamiento y el conjunto de datos (ejemplos)
que se incluyan en el conjunto de entrenamiento.
El algoritmo de aprendizaje es el que hace que la red adapte de una
determinada forma sus parmetros para llegar a una cierta solucin con los
ejemplos que se le suministran. Parece evidente que la eleccin de estos
parmetros influir en el comportamiento final de la red y por tanto en su
eficiencia.
Ocurrir lo mismo con la eleccin del conjunto de entrenamiento. Este debe
contener datos verdaderamente representativos para la resolucin del problema. Si
la calidad de los datos (informacin sobre el problema) es baja, los datos no sern
representativos de todos los aspectos del problema, es decir, se estar incluyendo
informacin no til, por lo que no podemos esperar que la red resuelva bien el
problema.
El otro factor que influye en la eficiencia que proporcione la red es la
arquitectura de la misma. Dicha estructura fija el modelo que a priori hemos
decidido que usaremos para resolver el problema. Segn el modelo, se obtendrn
resultados diferentes y por tanto la eficiencia obtenida por la red ser distinta.
Si se revisa la bibliografa sobre redes neuronales, la arquitectura ms
utilizada es Multilayer Feedforward (MF). Por ello, esta investigacin se ha
centrado en el estudio detallado sobre varios aspectos de la misma.
La red neuronal Multilayer Feedforward est constituida bsicamente por
tres capas de neuronas, una capa de entrada, una capa oculta y otra de salida. Ms
adelante realizaremos una descripcin detallada de la misma.

-6-

1.3. MOTIVACIONES DE LA INVESTIGACIN

Por otra parte, si revisamos la bibliografa, se puede ver que en la mayora


de casos se utilizan en el diseo de la red tcnicas de las primeras que se
propusieron, como por ejemplo algoritmos de aprendizaje muy bsicos. Sin
embargo, a lo largo de los aos se han propuesto muchos algoritmos de
aprendizaje ms avanzados con el objetivo de aumentar la capacidad de
generalizacin de las redes neuronales.
Por qu entonces se utilizan en muchas aplicaciones actuales algoritmos de
aprendizaje o procedimientos ya superados (los ms bsicos)? La respuesta es
mltiple.
En primer lugar, para una persona que solo tenga unos conocimientos
mnimos sobre redes neuronales puede ser imposible utilizar algo avanzado,
simplemente por desconocimiento de su existencia. Sin embargo, an suponiendo
que la persona que realiza la aplicacin sea un experto en redes neuronales, puede
encontrarse con el problema de no saber que procedimiento escoger entre la
multitud de los existentes. Si dicha persona revisa la bibliografa se encontrar
que en general no existen comparaciones entre los diferentes procedimientos que
le indiquen cual debe ser su eleccin.
En definitiva, se encontrar ante una multitud de alternativas, con escasa
informacin que le permita seleccionar la ms idnea o ms eficiente. Como
mucho, puede seleccionar uno o varios mtodos avanzados y esperar que alguno
funcione bien, o simplemente usar los procedimientos ms clsicos, ampliamente
conocidos. Esta es una situacin bastante habitual en el campo de redes
neuronales.
Actualmente, en este campo se estn proponiendo nuevas arquitecturas,
nuevos algoritmos, nuevas implementaciones fsicas, etc. Sin embargo, cuando se
propone, por ejemplo un nuevo algoritmo de aprendizaje o un procedimiento para
aumentar la eficiencia, las comparaciones que se realizan con algoritmos o
procedimientos conocidos anteriores, son bastante exiguas o prcticamente
inexistentes.
Adems, en el caso de que se incluya alguna comparacin se suele realizar
respecto a procedimientos bsicos y no respecto a procedimientos avanzados que
persigan el mismo objetivo que lo que se propone.
Por ello, pensamos que el inters de proponer nuevos algoritmos se reduce
bastante si no se sabe exactamente cul es su eficiencia con respecto a
procedimientos ya existentes.

-7-

1.3. MOTIVACIONES DE LA INVESTIGACIN

As, este es el momento apropiado para realizar un estudio comparativo


amplio sobre mtodos y algoritmos ya existentes, ya que todo procedimiento
nuevo presentar los problemas que hemos comentado anteriormente.
En la bibliografa [2], podemos encontrar algunos aspectos interesantes en
este sentido, los cuales avalan plenamente lo que se ha expuesto aqu.
En la referencia, se presenta un estudio detallado de 190 artculos referentes
a nuevos algoritmos de aprendizaje de redes neuronales que fueron publicados en
los aos 1993 y 1994. En dicho estudio, se mide por una parte la cantidad de
comparaciones realizadas con otros algoritmos ya existentes y por otro lado, se
evala el nmero de problemas utilizados para medir la eficiencia de los nuevos
algoritmos.
Los artculos utilizados en el estudio de la referencia se obtuvieron de cuatro
conocidas revistas dedicadas a la investigacin sobre redes neuronales: Neural
Networks, Neural Computation, Neurocomputing y IEEE Transactions on Neural
Networks.
En la figura 1 se
presentan algunos resultados
de dicho estudio.
En ella, se clasifican
de forma porcentual los
algoritmos de aprendizaje
que se proponen en dichos
aos en funcin del nmero
de comparaciones realizadas Fig. 1. Porcentaje de algoritmos de aprendizaje
en funcin del nmero de comparaciones
por el autor de la referencia,
con otros algoritmos conocidos.
con otros algoritmos ya
existentes. Se puede ver que aproximadamente un 33% de los nuevos algoritmos
propuestos en estos aos no se compararon con ningn otro algoritmo conocido.
La comparacin con otros algoritmos de aprendizaje conocidos y la propia
evaluacin experimental de los algoritmos propuestos segn la calidad y cantidad
de problemas que se utiliza para evaluarlo, resultan exiguas.
En la referencia [2], como hemos mencionado antes, se realiza tambin un
estudio cuantitativo sobre las evaluaciones experimentales que se suelen emplear
para los nuevos algoritmos propuestos.

-8-

1.3. MOTIVACIONES DE LA INVESTIGACIN

En la figura 2 se
muestra una clasificacin
porcentual de los nuevos
algoritmos de aprendizaje
propuestos en los aos
1993-1994, en funcin del
nmero de problemas reales
que se usaron para su
evaluacin
experimental.
Como se aprecia en la figura
tan slo en un 2% de los Fig.2. Porcentaje de algoritmos de aprendizaje
en funcin del nmero de problemas
nuevos algoritmos que se
reales usados para su comparacin.
proponen utilizaron seis o
ms problemas reales. Todo
esto, lleva a la situacin de tener varios procedimientos para realizar una
determinada cosa, y no saber cul es el ms eficiente o idneo, dificultando la
eleccin de uno por aquella persona que pretenda realizar una aplicacin. La
determinacin de cules son los procedimientos ms eficientes o idneos, es de
especial importancia tanto para el transvase de tecnologa avanzada existente al
mbito industrial, como para el progreso en s del campo de redes neuronales.
Hemos usado la referencia [2], del ao 1996, para mostrar que la situacin
respecto al nmero de comparaciones realizadas y el nmero de problemas a los
que se aplican los nuevos algoritmos no ha variado mucho a lo largo de los aos,
la situacin pues est estancada, por lo que consideramos de gran inters realizar
comparaciones entre diferentes tcnicas existentes para el diseo de aspectos
concretos de la red.
Tambin consideraremos importante utilizar un nmero suficiente de
problemas para medir la eficiencia de los mtodos que estudiemos.
Esta Tesis Doctoral se titula: Hacia un diseo ptimo de la Arquitectura
Multilayer Feedforward. Como indica el ttulo, se trata en ella de intentar
optimizar algunos aspectos sobre el diseo de la red. Con la palabra optimizar
no pretendemos expresar que se realizarn nuevos procedimientos para mejorar el
diseo de la red, sino que se har un estudio detallado de procedimientos ya
existentes y se justificar cual de ellos resulta ptimo en cada uno de los aspectos
de diseo que trataremos. Nuestro principal inters, ser estudiar por separado
diversos aspectos sobre el diseo de la red, realizando para ello un estudio de los
diferentes mtodos existentes para solucionar ese aspecto concreto.
Posteriormente, se llevar a cabo un anlisis comparativo entre los mtodos
estudiados.

-9-

1.3. MOTIVACIONES DE LA INVESTIGACIN

Para comparar las eficiencias de los mtodos se aplicarn los mismos a un


nmero considerable de problemas de clasificacin, la mayor parte de ellos reales,
cuyos datos han sido obtenidos del repositorio UCI [1].
Por ltimo, se concluir que mtodos resultan ms eficientes para cada uno
de los aspectos del diseo de la red que hemos estudiado.
Como introduccin a nuestra investigacin se describe en el apartado
siguiente la arquitectura de la red Multilayer Feedforward (MF) y el algoritmo de
aprendizaje ms bsico y ms usado en su entrenamiento, Backpropagation.

- 10 -

1.4. ARQUITECTURA MF Y ALGORITMO BACKPROPAGATION

1.4. Arquitectura MF y algoritmo Backpropagation


Como hemos dicho antes en esta investigacin nos centraremos en la
arquitectura Multilayer Feedforward, en general de tres capas y realizaremos un
estudio detallado sobre varios aspectos relativos a su diseo.
Existen muchos algoritmos de aprendizaje para esta red neuronal, pero uno
de los ms bsicos, descrito y usado en la bibliografa es el conocido como
Backpropagation. Por ello, en este primer captulo vamos a describir cul es la
arquitectura (estructura) de la red neuronal Multilayer Feedforward y
obtendremos las ecuaciones y funcionamiento del algoritmo de aprendizaje
Backpropagation.
La red Multilayer Feedforward est constituida por tres capas diferentes de
neuronas (o unidades), la capa de entrada, la capa oculta y la capa de salida.
La capa de entrada est formada por un nmero de neuronas fijado por el
nmero o cantidad de informacin que queremos procesar con la red
(caractersticas de la informacin). Esta capa simplemente transmite la
informacin de entrada al interior de la red, sus neuronas estn totalmente
interconectadas con las de la capa oculta.
La capa oculta (formada por un cierto nmero de neuronas) realiza un
procesado de la informacin de entrada a sus neuronas mediante una funcin de
transferencia de tipo sigmoide (aunque en ocasiones puede usarse otro tipo de
funciones). Las neuronas estn totalmente interconectadas con las neuronas de la
capa de entrada y cada conexin lleva asociada un peso, de forma que la entrada a
una neurona oculta ser una combinacin lineal de las entradas ponderadas por los
pesos que entran en dicha neurona oculta. La salida de cada neurona se obtendr
aplicando la funcin de transferencia sobre cada combinacin.
Por ltimo, la capa de salida est totalmente interconectada con la capa
oculta, hay un peso asociado a cada conexin y el procesado de la informacin de
las neuronas de salida es la suma de las seales de salida de la capa oculta
ponderada por los pesos. Las entradas a las neuronas de salida sern tambin una
combinacin lineal de la salida de las neuronas ocultas y la salida de la red se
obtendr aplicando la funcin de transferencia sobre dicha combinacin.
En la figura 3 se observa el comportamiento de la funcin de transferencia
de tipo sigmoide y los modos de activacin de la misma.

- 11 -

1.4. ARQUITECTURA MF Y ALGORITMO BACKPROPAGATION

Saturacin
(entradas positivas)

0.8

f(A)

0.6

modo lineal

0.4
0.2
0
-10

Saturacin
(entradas negativas)

-5

10

Fig.3. Funcin de transferencia sigmoide y sus modos de activacin.


La expresin de la funcin de transferencia sigmoide viene dada por la
ecuacin siguiente.
f ( x) =

1
1+ e -x

(1.1)

Para cada capa tendremos un vector formado por los valores de entrada y
otro por los de salida de las neuronas de dicha capa.
RED MULTILAYER FEEDFORWARD CON UNA CAPA OCULTA
En la figura 4 se encuentra dibujada la estructura de una red Multilayer
Feedforward de tres capas.
Llamemos a los vectores de salida de las diferentes capas como sigue.
Capa de entrada

{i1 , i 2 , L , i N } = {io1 , io 2 , L , io N } = {a1 , a 2 , L , a N }

Capa oculta

{ho1 , ho 2 , L , ho Nh } = { f (hi1 ), f (hi 2 ), L , f (hi Nh )}

Capa de salida

{oo1 , oo 2 , L , oo Ns } = { f (oi1 ), f (oi 2 ), L , f (oi Ns )}

Veamos cuales son las ecuaciones de la red.


En la ecuacin (1.2) mostramos la expresin de la entrada a una neurona j
de la capa oculta como una combinacin de las entradas a la red ponderadas con
los pesos.
hi j =

wiij ai + q j
i =1

- 12 -

(1.2)

1.4. ARQUITECTURA MF Y ALGORITMO BACKPROPAGATION

o o1

o ok

...

O1

......

Ok

oi1

oiNs

1 ,k

w h N h ,k
1

1 ,1

ONs

oik
wh

wh

o oN s

w h j ,1

wh

Ns

N h ,1

w h j ,k
wh
h o1

wi

h oN h

......

Hj

hi1

w h N h ,N s

j ,N s

h oj

....

H1

wh

1 ,N s

HNh

hij

1 ,1

wi

wi

hiNh

N ,1

i ,1

wi

wi

1 ,j

wi

i ,j

N ,j
1

wi
i

I1
i

wi

1 ,N h

...

Ii
i

wi

i ,N h

......

Nh

N ,N h

IN
i

Fig.4. Estructura de Red Neuronal Multilayer Feedforward.

- 13 -

1.4. ARQUITECTURA MF Y ALGORITMO BACKPROPAGATION

La ecuacin (1.3) expresa la entrada a una neurona k de la capa de salida en


funcin de una combinacin lineal de las salidas de las neuronas de la capa oculta
ponderadas con sus pesos.
oik =

Nh

wh jk ho j + x k

(1.3)

j =1

La ecuacin (1.4) nos da la salida de una neurona j de la capa oculta,


obtenida aplicando la funcin de transferencia sobre la entrada (1.2) a la misma.
ho j =

1
1 + exp( -hi j )

(1.4)

La ecuacin (1.5) describe la salida de una neurona k de la capa de salida,


obtenida aplicando la funcin de transferencia sobre la entrada (1.3) a la misma.
ook =

1
1 + exp( -oik )

(1.5)

En las ecuaciones anteriores y son los vectores de threshold o


umbrales que intervienen en la capa oculta y en la capa de salida de la red. Estos
se consiguen introduciendo una neurona con salida constante de valor 1 en la capa
inferior a la estudiada.
En las ecuaciones anteriores wiij y whjk son los pesos que representan las
conexiones entre capas diferentes (ver figura 4).
Una vez definida la arquitectura de la red para poder utilizarla en la
resolucin de un problema concreto es necesario entrenar la red para que aprenda
a resolver dicho problema.
Para ello, ser necesario disponer de un conjunto suficiente de ejemplos
(patrones) de entrenamiento con sus correspondientes objetivos. Es decir, cada
patrn de entrada lleva asociado un objetivo o resultado que sera la solucin
correcta al problema.
Para realizar el entrenamiento se van presentando los diferentes ejemplos a
la red y mediante un algoritmo de aprendizaje esta debe de acercarse cada vez ms
al objetivo que corresponde al ejemplo que se le presenta. Cuando los resultados
que suministre la red sean lo suficientemente cercanos a los objetivos podremos
considerar como acabado el entrenamiento.
Llamamos I al vector que representa un ejemplo y T al vector del objetivo
asociado a dicho ejemplo. Sea P el nmero total de ejemplos, N el nmero de

- 14 -

1.4. ARQUITECTURA MF Y ALGORITMO BACKPROPAGATION

neuronas de entrada a la red (dimensin de I), Ns el nmero de neuronas de salida


de la red (dimensin de T) y Nh el nmero de neuronas ocultas.
Veamos el funcionamiento del algoritmo Backpropagation. En primer lugar
se define el Error Cuadrtico Medio que mide la diferencia entre el resultado
que proporciona la red para un cierto ejemplo P y el objetivo de dicho ejemplo.
EP =

1
2

Ns

(t P,k - oo P,k )

(1.6)

k =1

El error total ser la suma para todos los patrones de los errores obtenidos
en la ecuacin (1.6).
El proceso de aprendizaje consiste en minimizar (respecto de los pesos) la
funcin de error para todos los patrones del conjunto de entrenamiento, los cuales
se van presentando a la red en iteraciones sucesivas hasta conseguir la
convergencia de la funcin de error.
Para cada iteracin los pesos de la red se irn modificando y modificarn las
entradas y salidas de las neuronas y el error en la siguiente iteracin.
El procedimiento a seguir ser:
1)Inicializar aleatoriamente o mediante algn mtodo los pesos de la red.
2)Introducir un patrn y modificar los pesos de la red segn las ecuaciones:
E P
Dwh j ,k (t + 1) = h wh
j ,k

+ b Dwh j ,k (t );

(1.7)

wh j ,k (t + 1) = wh j ,k (t ) + Dwh j ,k (t + 1)
E P
Dwii , j (t + 1) = h wi
i, j

+ b Dwii , j (t );

(1.8)

wii , j (t + 1) = wii , j (t ) + Dwii , j (t + 1)

Donde h es el paso de adaptacin y b es el momento.


3)Calcular el Error despus de acabada la iteracin. Tomar el resultado
final de los pesos obtenidos como la nueva inicializacin de pesos para la
siguiente iteracin.
4)Repetir los pasos 2 y 3 durante un nmero determinado de iteraciones
que permita la convergencia de la funcin de error (hacia un mnimo), es
decir, que el Error calculado en 3 alcance un mnimo.

- 15 -

1.4. ARQUITECTURA MF Y ALGORITMO BACKPROPAGATION

Para realizar el clculo de los pesos en cada iteracin, vemos que es


necesario obtener las expresiones de las derivadas de la funcin de error respecto
de los pesos.
Primero calculamos las derivadas para los pesos entre la capa oculta y la de
salida. A partir de la ecuacin (1.6) vemos la dependencia de Ep con ooP,k y la de
esta (ecuacin (1.5)) con la variable oiP,k.
Aplicando la regla de la cadena para derivar obtenemos:
E P
wh j ,k

E P

ooP,k

oiP ,k

ooP,k oiP ,k wh j ,k

(1.9)

A partir de la ecuacin (1.6) se tiene:


EP

= -(tP ,k - ooP ,k )

ooP ,k

(1.10)

De la ecuacin (1.1) podemos deducir la derivada de la funcin de


transferencia de nuestra red.
f ( x ) =

e- x

(1 + e - x )2

= f ( x ) (1 - f ( x ))

(1.11)

De las ecuaciones (1.5), (1.11) y (1.3) se puede deducir que:


oo P ,k
oi P,k

= oo P ,k (1 - oo P,k )

oi P ,k
wh j ,k

= ho P, j

(1.12)

(1.13)

Definimos la siguiente variable


d P,k = -( t P,k - oo P,k ) oo P,k (1 - oo P,k )

(1.14)

Sustituimos en (1.9) y el resultado final de la derivada respecto de los pesos


whj,k ser:
E P
wh j ,k

= d P ,k ho P,k

- 16 -

(1.15)

1.4. ARQUITECTURA MF Y ALGORITMO BACKPROPAGATION

Calcularemos ahora la derivada respecto de los pesos entre las unidades de


la capa oculta y la de entrada. Para ello vemos que depende de las variables ooP,k,
oiP,k y hoP,j. Tendremos:
E P
wii , j

oo P

P ,k

oo P ,k oi P ,k

oi P ,k wii , j

(1.16)

A su vez:
oi P,k

wii , j

oi P ,k
ho P,k

ho P ,k hi P ,k

hi P ,k wii , j

(1.17)

Sustituyendo la ecuacin anterior en la derivada que queremos calcular se


obtiene la siguiente ecuacin.
E P
wii , j

oo P
k

P ,k

oo P,k
oi P ,k

oi P ,k
ho P,k

ho P ,k hi P ,k

hi P,k wii , j

(1.18)

Solo queda calcular la ltima derivada que ser:


hi P,k
wii , j

= i P ,k

(1.19)

Sustituyendo las derivadas en la ecuacin (1.18) el valor final ser:


E P
wii , j

= {- (t P ,k - oo P,k ) oo P,k (1 - oo P,k ) wh j ,k ho P, j (1 - ho P, j ) i P ,i }

(1.20)

Definimos la siguiente variable:

d h P , j =

d P,k wh j,k ho P, j (1 - ho P, j )

(1.21)

Sustituyendo se obtiene finalmente la derivada respecto de los pesos wii,j :


E P
wii , j

= d h P , j i P, j

- 17 -

(1.22)

1.5. DESCRIPCIN DE LAS BASES DE DATOS

1.5. Descripcin de las Bases de Datos


En las investigaciones que se han llevado a cabo en esta Tesis se han
utilizado problemas obtenidos del UCI repository of machine learning databases
(http://www.ics.uci.edu/~mlearn/MLRepository.html) que estn a disposicin
pblica.
Se trata en general de problemas reales de clasificacin. A continuacin
damos una descripcin detallada de dichos problemas. Para poder utilizarlos en
nuestros experimentos se han transformado los datos de los mismos
convirtindolos en datos numricos normalizados en el intervalo [0,1].
En cada captulo explicaremos con ms detalle qu bases de datos o
problemas hemos utilizado y el tipo de transformacin sobre los datos que ha sido
necesario aplicar.
Veamos la descripcin de las bases de datos escogidas.
Abalone Data:
El problema consiste en predecir la edad de un abalone. Bajo dicho
nombre se agrupa a un conjunto de moluscos gastrpodos marinos comestibles1.
Se debe determinar si la edad est entre 25 y 95 aos, entre 105 y 115, o
es 125 o ms aos. Hay pues tres clases.
Para ello se utilizan ocho entradas, como son su sexo, la longitud y el
dimetro de la concha, el peso de la concha, el peso de la parte comestible, el peso
total, etc. Los datos son reales y fueron obtenidos por los Laboratorios de
Investigacin de la Marina de Tasmania, en Australia.
El nmero de datos disponibles es de 4177. Hemos usado 3300 en el
entrenamiento y 877 en el test.
Balance Scale Weight & Distance Database:
Se trata de predecir si una balanza estar equilibrada, inclinada a la
izquierda o a la derecha, por lo tanto es un problema con tres clases.
Las cuatro entradas que se utilizan para resolver el problema son: los dos
pesos situados a la derecha e izquierda de la balanza y las dos distancias de dichos
pesos al centro de la balanza.
1

En Castellano "abuln", caracol marino de California de concha grande, gruesa, auriculada y


muy nacarada.

- 18 -

1.5. DESCRIPCIN DE LAS BASES DE DATOS

Los datos disponibles son 625. Hemos usado 500 ejemplos para el
entrenamiento y 125 para el test.
Cylinder Bands:
En este problema se trata de predecir si se producirn retardos en el proceso
conocido en ingls como cylinder bands, en una mquina de impresin de
rotograbado.
La prediccin se realiza en funcin de 39 parmetros distintos que intentan
describir las condiciones de operacin de la mquina. Los datos son reales y el
problema tiene pues 39 atributos de entrada numricos.
Se utilizarn dos clases, una para indicar que hay retardos en el proceso y la
otra para indicar que no los hay.
Aunque la base de datos dispone de 512 ejemplos gran parte de ellos tienen
atributos desconocidos, por lo que al final nos quedamos con solo 277 ejemplos.
De ellos utilizaremos 190 para el entrenamiento y 87 para el test.
BUPA Liver Disorders:
El problema es determinar si un paciente tiene algn problema de hgado o
no. Las entradas son los resultados de cinco tests realizados en la sangre y el
consumo medio de alcohol por da. Los datos son reales y fueron obtenidos por la
compaa BUPA Medical Research Ltd.
Tenemos seis atributos o entradas numricas y dos clases: si hay o no
problemas en el hgado.
Los datos disponibles son 345. Hemos usado 245 ejemplos para el
entrenamiento y 100 ejemplos para el test.
Credit Approval:
El problema consiste en determinar si una peticin de una tarjeta de crdito
debe ser concedida o no. Se trata de un problema de clasificacin de dos clases.
El nmero de entradas es 15 y su significado se desconoce, puesto que se
trata de datos reales en los que se ha pretendido garantizar la confidencialidad.
La base de datos consta de 690 ejemplos pero 37 de ellos tienen entradas
desconocidas o perdidas. Hemos usado 653 ejemplos, 453 para el entrenamiento y
200 para el test.

- 19 -

1.5. DESCRIPCIN DE LAS BASES DE DATOS

Display1:
El problema es determinar el nmero que est representando en un display
led de 7 segmentos, sabiendo si cada uno de los leds est encendido o apagado.
Se trata de un problema de clasificacin con diez clases (cada uno de los
diez dgitos) y siete entradas binarias, una por cada led. Para complicar el
problema se han seleccionado aleatoriamente un 10% de los valores de las
entradas y se ha invertido su valor binario.
La base de datos generada consta de 2900 ejemplos, 900 para el
entrenamiento y 2000 para el test.
Display2:
Es exactamente el mismo problema que Display1, solo que se han aadido
un total de 7 entradas binarias adicionales cuyos valores son totalmente aleatorios
y por lo tanto absolutamente irrelevantes. En total tendremos 14 entradas.
La base de datos generada consta de 2900 ejemplos, 900 para el
entrenamiento y 2000 para el test.
Glass Identification Database:
El problema consiste en clasificar trozos de vidrio como pertenecientes a
una de las seis clases siguientes: artculos de mesa, recipientes, faros, ventanas de
edificios, ventanas de edificios tipo float processed y ventanas de vehculos tipo
float processed (no existen ventanas de vehculos que no sean tipo float
processed por lo que no se considera como una clase). Parece ser que esta
clasificacin tiene mucho inters en mbitos de investigacin criminolgica.
Los datos son reales y para realizar la clasificacin se utiliza diez entradas,
entre ellas el valor del ndice de refraccin y la cantidad porcentual de diversos
elementos en su composicin, Na, Mg, Al, Si, K, Ca, Ba, Fe.
El problema consta de 214 ejemplos, hemos usado 150 ejemplos para el
entrenamiento y 64 para el test.
Heart Disease Database:
El problema consiste en determinar si un paciente tiene alguna enfermedad
de corazn, ser pues un problema de dos clases. Para predecirlo, se utilizan 13
entradas de ndole diversa, desde algn parmetro del ECG, hasta el hecho de que
el paciente sea o no fumador.

- 20 -

1.5. DESCRIPCIN DE LAS BASES DE DATOS

Los datos son reales y fueron recopilados por varias clnicas especializadas
internacionales.
El nmero de ejemplos total de la base de datos es 920 pero entre ellos hay
muchos que tienen entradas desconocidas, por lo que finalmente usamos 297, 210
como ejemplos para el entrenamiento y 87 para el test.
Image Segmentation Data:
Los ejemplos de esta base de datos fueron obtenidos aleatoriamente de un
conjunto de imgenes exteriores. Las imgenes fueron segmentadas manualmente
para obtener la clasificacin de cada ejemplo. Un ejemplo representa una regin
de 3x3 puntos de la imagen. El objetivo es determinar a cul de las siete siguientes
clases pertenece el ejemplo: csped, ventana, cemento, follaje, nieve, ladrillo o
camino, es decir siete clases.
Para la clasificacin se utilizan un total de 19 entradas que representan
caractersticas del conjunto de puntos que forman el ejemplo. Los datos son
reales.
Utilizamos un total de 2311 ejemplos, 1500 para el entrenamiento y 811
para el test.
Mushroom Database:
El problema consiste en clasificar una seta como comestible o venenosa
(dos clases).
Para ello se utilizan un total de 22 caractersticas generales de la seta y su
hbitat, siendo los datos reales.
Se dispone en la base de datos de 8124 ejemplos, de los cuales 2480 tienen
entradas desconocidas o perdidas. Nos quedamos finalmente con 5644 ejemplos y
se usaron 4144 para el entrenamiento y 1500 para el test.
The Monk's Problems 1, 2 y 3:
Se trata de tres problemas artificiales con entradas binarias. No obstante,
tienen inters porque fueron utilizados para realizar la primera comparacin
internacional entre algoritmos de aprendizaje de mquinas. En los problemas hay
dos clases y seis entradas.
Se dispone de 432 ejemplos, 332 para el entrenamiento y 100 para el test.

- 21 -

1.5. DESCRIPCIN DE LAS BASES DE DATOS

Musk Clean2 Database:


El problema consiste en clasificar si una molcula sintetizada artificialmente
ser de tipo musk o no, es decir, tiene dos clases. Como musk se conoce a una
secrecin glandular de fuerte olor del venado macho que es usada en perfumera,
tambin a cualquier otra sustancia que tenga un olor similar. Dado que es de gran
utilidad en perfumera, se trata de sintetizar dicho olor artificialmente.
Como entradas se utiliza un total de 166 caractersticas de la molcula que
se va a sintetizar. Los datos son reales y fueron obtenidos por la corporacin
farmacutica Arris de USA.
Se dispone de 6598 ejemplos, hemos utilizado 5098 para entrenamiento y
1500 para test.
Pima Indians Diabetes Database:
El problema consiste en diagnosticar si un paciente tiene o no diabetes. Se
trata pues de un problema con dos clases. En concreto lo que se pretende es
distinguir si el paciente muestra o no signos de diabetes de acuerdo con los
criterios de la Organizacin Mundial de la Salud. Para el diagnstico se usan un
total de ocho entradas y los datos son reales.
El problema consta de 768 ejemplos, hemos empleado 518 para
entrenamiento y 250 para test.
Thyroid Domain:
El problema consiste en clasificar si el funcionamiento de la glndula
tiroides del paciente es normal, tiene una hiperfuncin o una hipofuncin,
tendremos tres clases.
El nmero de entradas que se utilizan son 21 (15 atributos binarios y 6
continuos) y los datos son reales.
Se tiene un total de 7200 ejemplos, de los cuales se utilizan 5700 para el
entrenamiento y 1500 para el test.
Voting Records:
El problema es determinar si una persona es republicana o demcrata a
partir de las contestaciones a un total de 16 preguntas. Los datos son reales y
fueron recogidos de las votaciones del congreso de los Estados Unidos, USA, en
el ao 1987.

- 22 -

1.5. DESCRIPCIN DE LAS BASES DE DATOS

El problema consta de dieciseis entradas y dos clases. Se dispone de 435


ejemplos, hemos utilizado 335 para el entrenamiento y 100 para el test.
Wisconsin Diagnostic Breast Cancer:
El problema consiste en determinar si un tumor de mama es maligno o
benigno, tendremos dos clases.
La determinacin se hace con 32 entradas que describen las caractersticas
de los ncleos de las clulas encontradas en una biopsia. Los datos son reales y
fueron recogidos en la Universidad de Wisconsin.
Se tienen un total de 569 ejemplos y usaremos 409 para el entrenamiento y
160 para el test.

- 23 -

1.6. HERRAMIENTAS DE TRABAJO: PC, SUN, MATLAB

1.6. Herramientas de trabajo: PC, SUN, Matlab


La investigacin sobre Redes Neuronales implica una gran carga
computacional en mquinas (PCs u otras). Es necesario ejecutar simulaciones de
los diferentes algoritmos y mtodos estudiados, entrenando tambin las redes
neuronales que se quieran finalmente utilizar.
A lo largo de nuestro trabajo hemos necesitado un nmero elevado de
procesadores en donde poder realizar dicha tarea.
Gracias al material disponible ya en la Universidad Jaume I y al apoyo de
algunos proyectos como: P1A97-19 de la Fundaci Caixa-Castell y la
Universidad Jaume I y GV99-75-1-14 de la Generalitat Valenciana, hemos
dispuesto del material necesario para realizar nuestra investigacin.
La primera necesidad fue la de mquinas con el mayor nmero de
procesadores posible, donde ejecutar nuestros programas.
La siguiente necesidad fue la de un lenguaje de programacin que
posibilitar un desarrollo de programas muy rpido y con cdigos fuentes
sencillos, de forma que se redujera considerablemente la posibilidad de errores en
la programacin. Respecto a esta ltima necesidad optamos por la utilizacin de
MATLAB. Toda la programacin realizada en esta Tesis se ha realizado con
MATLAB.
Respecto a la necesidad de mquinas, durante el primer ao de trabajo se
dispuso tan slo de una estacin de trabajo SUN UltraSPARC. Para dicha
mquina compramos las licencias para MATLAB, Compilador de C (Matlab C
Compiler) y biblioteca matemtica de C de Matlab (Matlab Math C Library). Con
dicho software tenamos resulto el problema de la programacin.
Posteriormente, se llev a cabo la compra de PCs con dos procesadores
cada uno y de licencias de MATLAB para los mismos. Con ello el trabajo se fue
agilizando bastante, cada procesador (de cada PC) realizaba una tarea concreta de
forma mucho ms rpida y el reparto de trabajo fue mucho ms productivo.
En la actualidad el Grupo de Redes Neuronales y Computacin Suave de
la Universidad Jaume I, dispone de una estacin de trabajo SUN UltraSPARC y
de 15 PCs (con dos procesadores cada uno) con diferentes velocidades, ya que su
compra se realiz en diferentes aos.
Otro aspecto importante en la investigacin sobre Redes Neuronales es el
almacenamiento de los resultados que se obtienen.

- 24 -

1.6. HERRAMIENTAS DE TRABAJO: PC, SUN, MATLAB

Los resultados de las simulaciones realizadas en Redes Neuronales suelen


ser ficheros de gran tamao, por ello a lo largo de la realizacin de la
investigacin nos hemos encontrado con el problema de tener que almacenar toda
la informacin que generbamos. Para ello, hemos dispuesto de una unidad de
discos magnetopticos removibles Sony de 2,6 Gb, de una unidad de cinta DAT
DDS-3 de HP de capacidad 12GB, CD-ROM (aqu grabamos datos de especial
importancia que ya han sido analizados para poder disponer de ellos con rapidez)
y discos ZIP de 100Mb (en ellos solemos guardar programas, artculos, etc.).
Actualmente tambin disponemos de una unidad RAID-5 con capacidad de
50Gb.

- 25 -

1.7. BIBLIOGRAFA DEL CAPTULO

1.7. Bibliografa del Captulo


[1] Merz, C. J., Murphy, P. M., (1998). UCI repository of machine learning
databases. Available at: http://www.ics.uci.edu/~mlearn/MLRepository.html.
[2] Prechelt, L., A quantitative study of experimental evaluations of neural
network learning algorithms: current research practice. Neural Networks,
vol. 9, no. 3, pp. 457-462, 1996.
[3] Rumelhart, D. E., McClelland, J. L., Parallel Distributed Processing:
Explorations in the Microstructure of Cognition. Vol. I, II y III. Cambridge,
MA: MIT Press, 1986, 1987.
[4] Maren, A., Harston, C., Pap, R., Handbook of Neural Computing
Applications. Academic Press, Inc. 1990.
[5] Hecht-Nielsen, R., Neurocomputing, Addison Wesley, 1991.
[6] Haykin, S., Neural Networks. A comprehensive Foundation. IEEE Press.
Macmillan College Publishing Company, Inc. 1994.
[7] Yoh-Han Pao, Adaptative Pattern Recognition and Neural Networks.
Addison-Wesley Publishing Company, Inc. 1989.
[8] Devroye, L., Gyrfi, L., Lugosi, G., A Probabilistics Theory of Pattern
Recognition. Springer-Verlag New York, Inc. 1996.
[9] Schalkoff, R. J., Pattern Recognition: Statistical, Structural and Neural
Approaches. John Wiley & Sons, Inc. 1992.
[10] Golden, R. M., Mathematical methods for Neural Network Analysis and
Design. Cambridge, MA: MIT Press. 1996.
[11] Deco, G., Obradovic, D., An information Theoretic Approach to Neural
Computing. Springer-Verlag New York, Inc. 1996.
[12] Reed, R. D., Marks, R. J., Neural Smithing. Supervised Learning in
Feedforward Artificial Neural Networks. Cambridge, MA: MIT Press. 1999.
[13] Fine, T.L., Feedforward Neural Network Methodology. Springer-Verlag
New York, Inc. 1999.
[14] Mller, B., Reinhardt, J., Strickland, M.T., Neural Networks. An
Introduction. Springer-Verlag Berlin Heidelberg. 1st Ed. 1990-2nd Ed. 1995.

- 26 -

Captulo 2

PROCEDIMIENTOS PARA EL USO DE ENTRADAS


DESCONOCIDAS
2.1. Introduccin
2.2. Procedimientos de utilizacin de entradas
desconocidas
2.2.1. Codificacin mediante un valor
2.2.2. Codificacin utilizando Aritmtica de Intervalos
2.2.2.1 Operaciones con aritmtic a de intervalos
2.2.2.2 Multilayer Feedforward c on aritmtica de
intervalos
2.2.2.3 Backpropagation con arit mtica de intervalos
2.2.2.3.1 Algoritmo de Hernndez
2.2.2.3.2 Algoritmo de Ishibuchi
2.2.2.3.3 Medidas de eficiencia
2.2.3. Codificacin mediante Probabilidades
2.2.4. Codificacin de entradas binarias, que no
utiliza entradas desconocidas en el
entrenamiento
2.3. Metodologa
2.3.1. Eleccin de bases de datos
2.3.2. Eleccin de la arquitectura
2.3.3. Proceso de entrenamiento y test
2.4. Resultados experimentales
2.5. Conclusiones
2.6. Bibliografa del Captulo

- 27 -

2.1. INTRODUCCIN

2.1. Introduccin
El objetivo de este captulo es realizar, para la arquitectura de Red Neuronal
Multilayer Feedforward, un estudio comparativo entre los procedimientos que
existen para utilizar entradas desconocidas.
Veamos en primer lugar, cul es el significado de una entrada desconocida.
Supongamos que se quiere resolver un cierto problema utilizando redes
neuronales. Lo primero que necesitamos conocer es qu informacin queremos
que procese la red (informacin de entrada en las neuronas de la red). En general
la informacin de entrada a la red (ejemplos) suele estar bien determinada. Sin
embargo, puede ocurrir que tras el entrenamiento, nos encontremos algn caso
(ejemplo de entrada) en el cual no toda la informacin de entrada est definida, es
decir, la entrada a una o ms neuronas de la red no se conozca, y, an as,
queramos obtener cul ser la clasificacin ms probable que proporcione la red
con la informacin de que disponemos.
Este problema es un caso muy tpico en aplicaciones de diagnstico mdico,
en donde uno o varios de los sntomas o pruebas en un determinado paciente
(entradas a ciertas neuronas de entrada de la red) pueden no conocerse. En [1] se
describen algunos ejemplos.
Como se describe en la referencia [1], es de esperar que la red neuronal sea
capaz de proporcionar algn diagnstico para ese paciente (clasificacin de
ejemplos con entradas desconocidas), a pesar de que la informacin de entrada sea
incompleta. El problema es cmo obtener la clasificacin de un ejemplo cuya
informacin es incompleta, es decir, cmo codificar estas entradas desconocidas o
cmo decirle a la red neuronal que una cierta entrada se desconoce. La solucin
ms simple podra ser codificar las entradas desconocidas con un valor, pero
cul?
Existen diferentes mtodos en la bibliografa para abordar el problema de
codificacin de las entradas desconocidas y no se conoce cul es el ms eficiente.
El objetivo de este captulo es realizar una comparacin experimental entre dichos
mtodos para ver cul de ellos resuelve mejor el problema.
Para algunos de los mtodos los autores proponen incluir entradas
desconocidas dentro de los ejemplos del conjunto de entrenamiento. As, razonan
que no ser posible que la red responda adecuadamente ante entradas
desconocidas si no se han usado antes en el entrenamiento. Sin embargo, la
inclusin de entradas desconocidas en el conjunto de entrenamiento puede generar
diversos problemas.

- 28 -

2.1. INTRODUCCIN

En primer lugar, el tamao del conjunto de entrenamiento crece


considerablemente, por lo que el esfuerzo computacional para desarrollar una
aplicacin ser mayor.
En segundo lugar, la eficiencia de la red puede verse afectada. Si fijamos un
valor determinado para la entrada desconocida de un ejemplo el cual est asociado
a un cierto objetivo (clase de clasificacin correcta para el ejemplo), estamos
forzando a la red a que nos d cmo resultado una clase concreta para ese valor de
la entrada desconocida. Esto puede suponer una prdida de eficiencia en la red
cuando no se usen entradas desconocidas.
Nosotros pensamos que es interesante medir de qu manera puede afectar la
introduccin de entradas desconocidas tanto en el entrenamiento como en el test.
Para ello, en nuestros experimentos, a partir de varios problemas de clasificacin
generaremos otros nuevos introduciendo en los problemas iniciales diferentes
porcentajes de entradas desconocidas en los conjuntos de datos para el
entrenamiento y para el test.
Para medir la eficiencia de los mtodos de codificacin de entradas
desconocidas con los nuevos problemas, se entrenarn y testearn diferentes redes
y al final podremos ver en que medida influye el uso de entradas desconocidas en
el entrenamiento, para mejorar o no la eficiencia de la red (capacidad de
generalizacin).
Es el siguiente apartado se describen detalladamente los mtodos sobre
codificacin de entradas desconocidas que vamos a estudiar.

- 29 -

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

2.2. Procedimientos de utilizacin de entradas


desconocidas
Se han propuesto diversos mtodos para abordar el problema de la
codificacin de entradas desconocidas para la red Multilayer Feedforward.
Algunos de ellos utilizan entradas desconocidas en el proceso de entrenamiento de
la red y otros no. A continuacin describimos los mtodos que consideramos ms
representativos y que son los que se usarn finalmente para realizar la
comparacin.

2.2.1. Codificacin mediante un valor


En la bibliografa podemos ver la descripcin de este mtodo en [1].
La codificacin para entradas binarias se suele tomar, si o presente
como 1 y no o ausente como 0. Segn este mtodo una entrada desconocida
se codificar con el valor 0.5.
En el caso de entradas no binarias el problema se complica [1]. En los
problemas que usaremos los valores de las entradas estn normalizadas en el
intervalo [0,1]. Para este caso, lo que se propone en este mtodo es sustituir las
entradas desconocidas por el valor 0 y desplazar el intervalo de los valores
conocidos a [0.25, 1].
Este mtodo requiere que se genere un conjunto de entrenamiento con
entradas desconocidas y por lo tanto que se incluyan entradas desconocidas en el
proceso de aprendizaje.
En [18], [19], [20] y [21], se encuentran algunos ejemplos de utilizacin de
este mtodo de codificacin de entradas desconocidas.

2.2.2. Codificacin utilizando Aritmtica de Intervalos


Con este mtodo, se propone un concepto diferente para tratar las entradas
desconocidas. En primer lugar, se hace una Generalizacin de la red Multilayer
Feedforward y el algoritmo de aprendizaje Backpropagation a Aritmtica de
Intervalos. Esta generalizacin permitir mezclar en un vector de entrada, entradas
representadas por un intervalo y entradas puntuales dadas por un valor. As las
entradas desconocidas se codifican usando el intervalo [0,1] si el conjunto de

- 30 -

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

posibles valores de la entrada est contenido en [0,1] y las entradas conocidas


pueden ser representadas por su valor.
El mtodo adems requiere que se realice un aprendizaje con un conjunto de
entrenamiento que contenga entradas desconocidas.
En la bibliografa, podemos encontrar dos generalizaciones de Multilayer
Feedforward y Backpropagation a Aritmtica de Intervalos [3], [4] y [5], [6]. En
ambas, la extensin de Multilayer Feedforward a Aritmtica de Intervalos es la
misma pero el algoritmo de aprendizaje Backpropagation que se propone difiere
en la funcin de error utilizada, ms adelante describiremos ambas con detalle.
Veamos en que consiste la generalizacin de la arquitectura Multilayer
Feedforward a Aritmtica de Intervalos.
En el captulo primero, se describi brevemente la arquitectura Multilayer
Feedforward y el algoritmo de aprendizaje Backpropagation. Partiendo de ella
surge una primera aproximacin a la utilizacin de aritmtica de intervalos tal y
como se describe en la referencia [2]. La introduccin de aritmtica de intervalos
en la red permite que se empleen vectores puntuales e intervalos vectoriales como
entradas en los ejemplos para el entrenamiento de la red neuronal.
Se entiende por vector puntual:

{a1,a2, ...,aN} , ai

Un intervalo vectorial se definir como:


{[a1I,a1S], [a2I,a2S], ..., [aNI,aNS]}, aiI,aiS y aiIaiS

"i

Donde los superndices I y S denotan los extremos inferior y superior del


intervalo respectivamente.
Tenemos as un vector compuesto por intervalos como entradas a la red
(ejemplos de entrada). Si en algn intervalo el extremo inferior y superior
coinciden, tendremos como ejemplo de entrada a la red un vector que ser una
mezcla de puntos e intervalos.
La red propuesta en [2] es capaz utilizar dichos vectores como ejemplos de
entrada a la red, tanto en el entrenamiento como despus.
Sin embargo, la red descrita en [2] era bastante limitada, solo posea una
unidad de salida, con lo que solo serva para resolver problemas de clasificacin
con dos clases. Adems, los objetivos de la salida de la red eran valores reales, por
lo que no exista la posibilidad de utilizar tambin intervalos como objetivos del
entrenamiento de la misma.

- 31 -

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

Por ello, surge una nueva propuesta descrita en las referencias [3] y [4]. Se
trata de introducir la aritmtica de intervalos, tanto en la estructura Multilayer
Feedforward, como en el algoritmo de aprendizaje Backpropagation de forma ms
eficiente y general que la propuesta en [2].
En dichas referencias, se propone una forma de permitir la introduccin de
intervalos vectoriales tanto en la capa de entrada (ejemplos de entrada), como en
la de salida (objetivos), por lo que la propagacin de la seal de una capa a otra se
har tambin con intervalos vectoriales.
El algoritmo de aprendizaje deber de adaptarse a esta estructura, de forma
que se salvarn los inconvenientes que presentaba el mtodo descrito en [2]. El
algoritmo final ser una verdadera generalizacin de Backpropagation a aritmtica
de intervalos, ya que s utilizamos vectores de entrada y salida puntuales todas las
ecuaciones se reducirn a las clsicas utilizadas en Multilayer Feedforward con
Backpropagation.

2.2.2.1. Operaciones con Aritmtica de intervalos


Primero veremos algunas operaciones que pueden realizarse con aritmtica
de intervalos y que nos sern de utilidad. En la referencia [7] puede encontrarse
una exposicin ms detallada.
Sean dos intervalos cerrados A y B en los cuales denotaremos con
superndices I y S a los extremos inferior y superior respectivamente.
A = [ aI ,aS ]

B = [ bI ,bS ]

Definiremos las siguientes operaciones:


Suma de intervalos:
A + B = [ a I , a S ]+ [ b I , b S ] = [ a I + b I , a S + b S ]

(2.1)

Producto de un nmero real positivo o negativo por un intervalo:


[ m a I , m a S ],
m A = m [ a I , a S ]=
S
I
[ m a , m a ],

m0
m<0

si
si

(2.2)

Funcin exponencial de un intervalo:


exp( A) = exp( [ a I , a S ] ) = [exp(a I ), exp(a S )]

(2.3)

Derivada parcial respecto a variables de los lmites de los intervalos:

( [ a x 2 , c x 2 + d y ] ) = [ 2 a x , 2 c x + d y ] ,

[ 2 c x + d y , 2 a x] ,

- 32 -

si
si

2ax 2cx + dy
2cx + dy 2ax

(2.4)

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

2.2.2.2. Multilayer Feedforward con aritmtica de intervalos


En el primer captulo describimos con detalle la arquitectura de la red
Multilayer Feedforward.
Ahora vamos a ver cul es la generalizacin de Multilayer Feedforward que
se propone en las referencias [3] y [4].
Partimos de la funcin de transferencia o de activacin utilizada en
Multilayer Feedforward para una neurona x:
f ( x) =

(2.5)

1 + exp( - x )

La generalizacin de la misma a aritmtica de intervalos ser:

1
1
,
f ( A) = f ( [ a I , a S ] ) = [ f (a I ), f (a S )] =
I
S
1 + exp(- a ) 1 + exp(- a )

(2.6)

Esta definicin es consistente ya que se trata de una funcin montona


creciente, por lo cual, la nueva funcin de transferencia transformar un intervalo
A=[aI,aS] a la entrada de la neurona en otro intervalo f(A)=[f(aI),f(aS)] a la salida
de la misma.
En la figura 1 podemos ver la representacin de la nueva funcin de
transferencia.

f(A)=[f(a I ),f(a S )]

1
0.8
0.6
0.4
0.2
0
-10

-8

-6

-4

-2

A=[a I ,a S ]

10

Fig.1. Funcin de transferencia para aritmtica de intervalos.


Veamos ahora como se transforman el resto de parmetros de la estructura
de la red neuronal.

- 33 -

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

Para Multilayer Feedforward tenamos que los vectores de salida de las


diferentes capas son:
Capa de Entrada: {io1 , io 2 , L , io N } = {a1 , a 2 , L , a N }

(2.7)

Capa Oculta:

{ho1 , ho 2 , L , ho Nh } = { f (hi1 ), f (hi 2 ), L , f (hi Nh )}

(2.8)

Capa de Salida:

{oo1 , oo 2 , L , oo Ns } = { f (oi1 ), f (oi 2 ), L , f (oi Ns )}

(2.9)

Las ecuaciones para la red eran:


N

hi j = wiij a i + j

(2.10)

i =1

Nh

oi k = wh jk ho j + x k

(2.11)

j =1

ho j =
oo k =

1
1 + exp(-hi j )
1
1 + exp(-oi k )

(2.12)
(2.13)

Veamos como se transforman estas ecuaciones mediante el uso de


Aritmtica de Intervalos.
Ahora tendremos vectores formado por intervalos, denotaremos por P a un
patrn de entrada concreto, por I al lmite inferior de un intervalo y por S al lmite
superior de un intervalo.
Sea [ i PI ,i , i PS ,i ] el intervalo que representa a la coordenada i-sima del vector
de entrada a la red del patrn P (neurona de entrada i). La dimensin de dicho
vector es N y puede escribirse:

{ [ i PI ,1 , i PS,1 ] , [ i PI ,2 , i PS,2 ] , K , [ i PI , N , i PS, N ] }

(2.14)

Igual que en la estructura Multilayer Feedforward, los pesos entre las capas
de la estructura de la red neuronal que relacionan la salida de una capa con la
entrada de la siguiente tendrn valores reales.
La entrada a una neurona que no pertenezca a la capa de entrada ser la
suma de las contribuciones (salidas ponderadas por los pesos) de las neuronas de
la capa anterior. Estas operaciones siguen siendo iguales. La diferencia radica en
que ahora se multiplicarn los pesos (nmeros reales) entre dos neuronas por el
intervalo que representa la salida de la neurona de la capa anterior, por lo que
aparecern tambin multiplicaciones y sumas de intervalos vectoriales.

- 34 -

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

Fig.2. Estructura Multilayer Feedforward con aritmtica de intervalos.

- 35 -

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

Utilizaremos la estructura de la red con una sola capa oculta. El inters o no


de usar ms de una capa oculta en la red se tratar en el captulo 5.
En la figura 2 puede verse la generalizacin de la estructura Multilayer
Feedforward a aritmtica de intervalos que hemos utilizado. Llamaremos:
Salida de la neurona i de la capa de entrada:
I P,i = [ i PI ,i , i PS ,i ]

(2.15)

Salida de la neurona j de la capa oculta:


H P , j = [ h PI , j , h PS , j ] = f ( Neth P , j ) = [ f (neth PI , j ) , f (neth PS , j )]

(2.16)

Salida de la neurona k de la capa de salida:


O P ,k = [ o PI ,k , o PS ,k ] = f ( Neto P ,k ) = [ f (neto PI ,k ) , f (neto PS ,k )]

(2.17)

Llamamos q y x a los vectores de threshold o umbrales que intervienen en


la capa oculta y en la capa de salida respectivamente. Estos se consiguen
introduciendo una neurona de salida constante con valor 1 en la capa inferior a la
que se este estudiando.
La entrada a la unidad j de la capa oculta ser:
Neth P , j = [ neth PI , j , neth PS , j ] =

wii, j I P,i + q j

(2.18)

i =1

Donde:
neth PI , j =

neth PS , j =

wi i , j i PI ,i +

wii, j i PS,i + q j

i =1
wii , j > 0

i =1
wii , j < 0

i =1
wii , j > 0

i =1
wii , j < 0

wii, j i PS,i + wii, j i PI ,i + q j

(2.19)

(2.20)

En las ecuaciones anteriores wii,j son los pesos que conectan la neurona j de
la capa oculta con la neurona i de la capa de entrada. La aparicin en las
ecuaciones de dos sumatorios se debe a la propiedad que vimos antes sobre el
producto de un intervalo por un nmero real, ecuacin (2.2).

- 36 -

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

La entrada a la unidad k de la capa de salida ser:


Neto P, k = [ neto PI ,k , neto PS , k ] =

Nh

wh j,k H P, j + x k

(2.21)

j =1

Donde:
neto PI ,k =

neto PS ,k =

Nh

wh j,k h PI , j +

Nh

wh j,k hPS, j + x k

j =1
wh j , k > 0

j =1
wh j , k < 0

Nh

Nh

j =1
wh j , k > 0

j =1
wh j , k < 0

wh j,k h PS, j + wh j,k hPI , j + x k

(2.22)

(2.23)

En las ecuaciones anteriores whj,k son los pesos que conectan la neurona k
de la capa de salida con la neurona j de la capa oculta.
Cabe destacar que si en las ecuaciones anteriores nos restringimos a
vectores puntuales, es decir, las variables etiquetadas con los ndices I y S
representan el mismo valor, obtendremos exactamente las mismas ecuaciones que
vimos en el captulo primero para Multilayer Feedforward.

2.2.2.3. Backpropagation con aritmtica de intervalos


Una vez definida la estructura de la red ser necesario un entrenamiento de
la misma antes de poder usarla. Para ello, debemos disponer de un conjunto
suficiente de ejemplos de entrenamiento con sus correspondientes objetivos. Los
ejemplos (patrones) y objetivos como vimos en la seccin anterior vendrn
representados por vectores de intervalos.
Para un cierto patrn P tendr que el ejemplo y su objetivo podrn
expresarse por las ecuaciones (2.24) y (2.25) respectivamente, siendo N el nmero
de atributos de entrada y Ns el nmero de clases o unidades de salida.
I P = {[ i PI ,1 , i PS ,1 ] , [ i PI , 2 , i PS , 2 ] , L , [ i PI , N , i PS , N ]}

(2.24)

T P = {[ t PI ,1 , t PS ,1 ] , [ t PI ,2 , t PS ,2 ] , L , [ t PI , Ns , t PS , Ns ]}

(2.25)

Ahora tenemos que realizar la generalizacin del algoritmo de aprendizaje


Backpropagation a aritmtica de intervalos. Como vimos, dicho algoritmo
consiste bsicamente en ajustar los pesos de la red durante iteraciones
consecutivas, a la vez que se minimiza una cierta funcin de error.

- 37 -

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

La generalizacin consiste, igual que el apartado anterior, en transformar las


ecuaciones teniendo en cuenta que tanto las seales de las neuronas de entrada
como las de salida vienen representadas por intervalos y que si estos fuesen
puntuales deberamos obtener las ecuaciones tradicionales de Backpropagation.
En la bibliografa se pueden encontrar dos generalizaciones diferentes de
Backpropagation a aritmtica de intervalos. La diferencia bsica entre ellas es la
funcin de error de partida.
En los siguientes apartados describiremos ambas generalizaciones y
desarrollaremos sus ecuaciones.

2.2.2.3.1. Algoritmo de Hernndez


En las referencias [3] y [4] Hernndez describe una generalizacin a
aritmtica de intervalos desarrollada tanto para la red Multilayer Feedforward
como para el algoritmo Backpropagation.
El primer paso para definir la generalizacin del algoritmo es definir una
funcin de error para el uso de intervalos. Para ello, se fija como objetivo que
tanto el lmite inferior como superior de las unidades de salida coincidan con los
lmites de los intervalos que representan los objetivos.
Se define as el error cuadrtico medio para el patrn P como:
EP =

1
4

2
2
{ ( t PI ,k - o PI ,k ) + ( t PS,k - o PS ,k ) }
Ns

(2.26)

k =1

El proceso de aprendizaje consiste en minimizar la funcin de error para


todos los ejemplos del conjunto de entrenamiento, los cuales se presentan a la red
en sucesivas iteraciones hasta conseguir la convergencia de la funcin de error.
La minimizacin del error se har respecto de los pesos de la red. Dado whjk
uno de los pesos entre las neuronas j de una capa y k de la capa siguiente, el
algoritmo consistir en adaptar los pesos a medida que hacemos que converja la
funcin de error. Despus de cada iteracin los pesos sern modificados segn las
siguientes ecuaciones:
E P
wh j ,k (t + 1) = wh
j ,k

E P
wi i , j (t + 1) = wi
i, j

+ wh j ,k (t )

(2.27)

+ wii , j (t )

(2.28)

- 38 -

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

Donde h es el paso de adaptacin y b es el momento.


Las salidas de las neuronas estn limitadas entre los valores 0 y 1
(positivos), por lo que al multiplicar por un peso segn el signo de este puede
variar el orden de los lmites de los intervalos.
Clculo de las derivadas de la capa oculta
Calculamos las derivadas de los pesos entre la capa oculta y la de salida.
A partir de la ecuacin (2.26) vemos la dependencia de Ep con oIP,k y oSP,k y
la de estas (ecuacin (2.17)) con las variables netoIP,k netoSP,k .
Aplicando la regla de la cadena para derivar obtenemos:
E P
wh j ,k

E P

o PI ,k

o PI , k neto PI ,k

E P

neto PI ,k
wh j ,k
=

wh j , k

E P

E PI
wh j ,k

o PS ,k

o PS ,k neto PS , k

neto PS ,k

(2.29)

wh j , k

E PS

(2.30)

wh j ,k

A partir de la ecuacin (2.26) obtenemos:


E P
o PI ,k

1
= - ( t PI ,k - o PI ,k )
2

(2.31)

De la ecuacin (2.5) podemos deducir la derivada de la funcin de


transferencia utilizada en la red.
f ( x) =

exp(- x)

(1 + exp(- x) ) 2

= f ( x) (1 - f ( x))

(2.32)

De las ecuaciones (2.17) y (2.32) se puede deducir que:


o PI ,k
neto PI ,k

= o PI ,k (1- o PI ,k )

(2.33)

La ltima derivada va a depender del signo del peso. A partir de la ecuacin


(2.22) se obtiene:
neto PI ,k
wh j ,k

h PI , j
=
h PS , j

si

wh j ,k 0

si

wh j ,k < 0

Del mismo modo, a partir de la ecuacin (2.23) se obtiene:

- 39 -

(2.34)

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

h PS , j
=
h PI , j

neto PS ,k
wh j ,k

si

wh j ,k 0

si

wh j ,k < 0

(2.35)

Definimos las siguientes variables:


1
d PI ,k = - ( t PI ,k - o PI ,k ) o PI ,k (1 - o PI ,k )
2

(2.36)

1
d PS,k = - ( t PS ,k - o PS ,k ) o PS ,k (1 - o PS ,k )
2

(2.37)

El resultado final de la derivada ser:


d PI ,k h PI , j + d PS,k h PS , j
=
d PI ,k h PS , j + d PS,k h PI , j

E P
wh j ,k

si

wh j ,k 0

si

wh j ,k < 0

(2.38)

Clculo de las derivadas de la capa de entrada


Calcularemos ahora la derivada respecto de los pesos entre las unidades de
la capa oculta y la de entrada.
E P
wii , j

E PI
wii , j

E PS

(2.39)

wii , j

Vemos que ahora depender de las variables oP,k, netoP,k y hP,j. Tendremos:
E PI
wii , j

E PS
wii , j

o IP
k

P ,k

E P
o PS ,k

o PI ,k
neto PI ,k

o PS ,k
neto PS ,k

neto PI ,k

(2.40)

wii , j

neto PS ,k

(2.41)

wii , j

De la ecuacin (2.22) y teniendo en cuenta el signo de los pesos, tenemos:

neto PI ,k
wii , j

neto PI , k
h PI , j
neto PI , k
h PS , j

h PI , j
neth PI , k
h PS , j
neth PS , k

neth PI , k

si

wh j ,k 0

si

wh j ,k < 0

wii , j
neth PS , k
wii , j

Del mismo modo a partir de la ecuacin (2.23):

- 40 -

(2.42)

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

neto PS ,k
wii , j

neto PS , k
h PS , j
neto PS , k
h PI , j

h PS , j
neth PS , k
h PI , j
neth PI , k

neth PS , k

si

wh j ,k 0

si

wh j ,k < 0

wii , j
neth PI , k
wii , j

(2.43)

Sustituyendo las ecuaciones anteriores en la derivada que queremos calcular


se obtiene la siguiente ecuacin.
E P
wii , j

E
h PI , j neth PI ,k
o PI ,k
neto PI ,k

I
I
I
I
k , wh j , k 0 o P
neto
h
neth

wi i , j
,k
P, j
P ,k
P,k

E
h PS , j nethPS ,k
o PI , k
neto PI ,k

I
I
S
S
k , wh j , k < 0 o P
neto
h
neth

wii , j
,k
P,k
P, j
P ,k

E
h PS , j nethPS ,k
o PS , k
neto PS ,k

S
S
S
S
k , wh j , k 0 o P
neto
h
neth

wii , j
,k
P,k
P, j
P ,k

E
h PI , j neth PI ,k
o PS , k
neto PS ,k

S
S
I
I
k , wh j , k < 0 o P
neto
h
neth

wii , j
,k
P,k
P, j
P ,k

(2.44)

Utilizando las ecuaciones (2.32), (2.36) y (2.37) podemos sustituir en la


ecuacin anterior el valor de las derivadas.
E P
wii , j

nethPI ,k
I
I
I
d
wh
h
h
1
(
)

P, j
P, k j , k P, j
k , wh j , k 0
wii , j

neth PS ,k
I
S
S
d
wh
h
h
1
(
)

P, j
P ,k j ,k P, j
k , wh j , k < 0
wii , j

neth PS ,k
S
S
S
d
wh
h
h
1
(
)

P, j
P ,k j ,k P, j
k , wh j , k 0
wii , j

neth PI ,k
S
I
I
(
)
d
wh
h
h
1

P, j
P ,k j ,k P, j
k , wh j , k < 0
wii , j

(2.45)

Solo queda calcular la ltima derivada que depende del signo de los pesos:
nethPI , j
wii , j
neth PS , j
wii , j

iPI ,i

si

wii , j 0

iPS ,i

si

wii , j < 0

i PS ,i

si

wii , j 0

i PI ,i

si

wii , j < 0

- 41 -

(2.46)

(2.47)

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

Definimos las siguientes variables:

dh PI , j =
d PI , k wh j ,k +
d PS,k wh j ,k h PI , j (1 - h PI , j )
k , wh 0

k , wh j , k < 0
j,k

(2.48)

dh PS , j =
d PS, k wh j ,k +
d PI ,k wh j , k h PS , j (1 - h PS , j )
k , wh 0

k , wh j , k < 0
j,k

(2.49)

Utilizando (2.46), (2.47), (2.48) y (2.49) y sustituyendo en la ecuacin


(2.45) queda:
E P
wii , j

dh PI , j i PI ,i + dh PS , j i PS ,i
=
dh PS , j i PI ,i + dh PI , j i PS ,i

si

wii , j 0

si

wii , j < 0

(2.50)

2.2.2.3.2. Algoritmo de Ishibuchi


En esta generalizacin a aritmtica de intervalos, el vector de los objetivos
no es un vector de intervalos, sino que cuando la entrada se clasifique en una
cierta clase el objetivo ser 1 y si no ser cero.
La funcin de error definida por Ishibuchi en las referencias [5] y [6] es
tambin diferente.
Ishibuchi define la funcin de error que hay que minimizar como:
Ns

E P = max

k =1

( t P , k - o P , k )2
2

tal que : o P ,k O P ,k

(2.51)

Donde oP,k es un nmero real, y OP,k es el intervalo de salida para la k-sima


unidad de salida.
Utilizaremos aqu la misma notacin que vimos para aritmtica de
intervalos desde la ecuacin (2.15) hasta la (2.23).
Dada una clase (unidad de salida) le restamos al objetivo de dicha clase el
valor oP,k del intervalo y nos quedamos con el mximo. Es decir, sea r una clase:
Si el patrn es de la clase r

tP,k=1 y oP,k debe ser mnimo, ser oIP,k.

Si el patrn no es de la clase r tP,k=0 y oP,k debe ser mximo, ser oSP,k.

- 42 -

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

La funcin max de la ecuacin (2.51) equivale simplemente a distinguir en


la suma si la salida pertenece o no a la clase. Podemos reescribir as dicha
ecuacin como:

EP =

Ns

( t P,k - o PS ,k )2
2

k =1
k r

2
1
I
+ ( t P ,r - o P ,r )
2

(2.52)

Igual que en el algoritmo de Hernndez, despus de cada iteracin los pesos


sern modificados segn las siguientes ecuaciones:
E P
Dwh j ,k (t + 1) = h wh
j ,k

+ a Dwh j ,k (t )

(2.53)

E P
Dwii , j (t + 1) = h wi
i, j

+ a Dwii , j (t )

(2.54)

Donde h es el paso de adaptacin y a el momento.


Veamos como calcular las derivadas en las expresiones anteriores.
Clculo de las derivadas de la capa oculta
Calculamos las derivadas para los pesos entre la capa oculta y la de salida.
A partir de la ecuacin (2.52) vemos que hay que distinguir entre s la
entrada se clasifica en una cierta clase r o no.

E P
wh j ,k

E P

o PI ,k

o PI ,k wh j ,k
E P

o PS ,k

o PS ,k wh j ,k

= -(t P,k - o PI ,k )
= -(t P,k - o PS ,k )

o PI ,k
wh j ,k
o PS ,k
wh j ,k

si

k=r

si

k r

(2.55)

Para calcular las derivadas de oIP,k y oSP,k usamos las siguientes ecuaciones:
o PI ,k
wh j ,k
o PS ,k
wh j ,k

o PI ,k
neto PI ,k
o PS ,k
neto PS ,k

neto PI ,k
wh j ,k
neto PS ,k
wh j ,k

= o PI ,k (1 - o PI ,k )

neto PI ,k

= o PS ,k (1 - o PS ,k )

neto PS ,k

Sustituyendo en la ecuacin (2.55) queda:

- 43 -

wh j ,k

wh j ,k

(2.56)

(2.57)

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

E P
wh j ,k

neto PI ,k

I
I
I

(
)
1
(
)
t
o
o
o

P ,k
P ,k
P ,k
P ,k
wh j ,k

=
neto PS ,k

S
S
S
- (t P,k - o P,k ) o P,k (1 - o P,k )
wh j ,k

si k = r

(2.58)

si k r

Definimos las siguientes variables:


d PI ,k = -( t P,k - o PI ,k ) o PI ,k (1 - o PI ,k )

(2.59)

d PS,k = - ( t P,k - o PS ,k ) o PS ,k (1 - o PS ,k )

(2.60)

Sustituimos las ecuaciones (2.34) y (2.35) en las ecuaciones (2.56) y (2.57)


y para obtener el resultado final de la derivada sustituimos el resultado anterior
junto con las ecuaciones (2.59) y (2.60) en la ecuacin (2.58). As tenemos:

E P
wh j ,k

d PI ,k

d PS,k

=
d PI ,k

d PS,k

h PI , j

si

k=r

wh j ,k 0

h PS , j

si

k r

wh j ,k 0

h PS , j

si

k=r

wh j ,k < 0

h PI , j

si

k r

wh j ,k < 0

(2.61)

Clculo de las derivadas de la capa de entrada


Calcularemos ahora la derivada respecto de los pesos entre las unidades de
la capa oculta y la de entrada.
Hay que distinguir de nuevo entre s los pesos son positivos o negativos.

E P
wii , j

E P

o PI ,k

o PI ,k wii , j
E P

o PS ,k

o PS ,k wii , j

= -(t P ,k - o PI ,k )
=-

Ns

o PI ,k

(t P ,k - o PS ,k )

k =1
k r

si

wii , j
o PS ,k

si

whi , j

k=r

(2.62)

kr

Teniendo en cuenta el signo de los pesos tenemos:

o PI ,k
wii , j

o PI ,k

I
neto P ,k
=
o PI ,k

neto PI ,k

neto PI ,k
h PI , j
neto PI ,k
h PS , j

h PI , j
neth PI , j
h PS , j
neth PS , j

- 44 -

neth PI , j
wii , j
neth PS , j
wii , j

si

wh j ,k 0

si

wh j ,k < 0

(2.63)

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

o PS ,k
wii , j

o PS ,k

S
neto P ,k
=
o PS ,k

neto PS ,k

neto PS ,k
h PS , j
neto PS ,k
h PI , j

h PS , j
neth PS , j
h PI , j
neth PI , j

neth PS , j
wii , j
neth PI , j
wii , j

si

wh j ,k 0

si

wh j ,k < 0

(2.64)

Utilizando las ecuaciones (2.46) y (2.47), la derivada del lmite inferior ser:

o PI ,k
wii , j

o PI ,k

o PI ,k

=
o PI ,k

o PI ,k

(1 - o PI ,k ) wh j ,k h PI , j (1 - h PI , j ) i PI ,i

si

wii , j 0

wh j ,k 0

si

wii , j < 0

wh j ,k 0

si

wii , j 0

wh j ,k < 0

si

wii , j < 0

wh j ,k < 0

(1 - o PS ,k ) wh j ,k h PS , j (1 - h PS , j ) i PS ,i

si

wii , j 0

wh j ,k 0

(1 - o PS ,k ) wh j ,k h PS , j (1 - h PS , j ) i PI ,i

si

wii , j < 0

wh j ,k 0

(1 - o PS ,k ) wh j ,k h PI , j (1 - h PI , j ) i PI ,i

si

wii , j 0

wh j ,k < 0

(1 - o PS ,k ) wh j ,k h PI , j (1 - h PI , j ) i PS ,i

si

wii , j < 0

wh j ,k < 0

)
)
(1 (1 - o PI ,k ) wh j ,k h PS , j (1 - h PS , j ) i PS ,i
(1 - o PI ,k ) wh j ,k h PS , j (1 - h PS , j ) i PI ,i
1 - o PI ,k

wh j ,k h PI , j

h PI , j

i PS ,i

(2.65)

Y la del lmite superior:

o PS ,k
wii , j

o PS ,k

o PS ,k

=
o PS ,k

o PS ,k

(2.66)

El resultado final de la derivada sustituyendo en la ecuacin (2.62) y usando


las ecuaciones (2.59) y (2.60) ser:

E P
wii , j

d PI ,k wh j ,k h PI , j (1 - h PI , j ) i PI ,i

d PI ,k wh j ,k h PI , j (1 - h PI , j ) i PS ,i

d I wh h S (1 - h S ) i S
j ,k
P, j
P, j
P ,i
P ,k
d I wh h S (1 - h S ) i I
j ,k
P, j
P, j
P ,i
P ,k
Ns

d S wh j ,k hPS , j (1 - h PS , j ) i PS ,i
P ,k
= k =1k r
Ns

d PS,k wh j ,k hPS , j (1 - h PS , j ) i PI ,i
k =1
k r

Ns

d PS,k wh j ,k hPI , j (1 - h PI , j ) i PI ,i
k =1k r
Ns

S
I
I
S
d P,k wh j ,k hP , j (1 - h P , j ) i P ,i
k =1k r

- 45 -

si k = r

wh j ,k 0 wii , j 0

si k = r

wh j ,k 0 wii , j < 0

si k = r

wh j ,k < 0 wii , j 0

si k = r

wh j ,k < 0 wii , j < 0

si k r wh j ,k 0 wii , j 0
si k r wh j ,k 0 wii , j < 0
si k r wh j ,k < 0 wii , j 0
si k r wh j ,k < 0 wii , j < 0

(2.67)

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

2.2.2.3.3. Medidas de eficiencia


Una vez entrenada la red, hay que medir la eficiencia que proporciona en
funcin del algoritmo utilizado en el entrenamiento para as poder comparar cul
es mejor. Para ello, necesitamos algn criterio que mida la eficiencia.
Dado un nuevo conjunto de ejemplos que contengan entradas desconocidas
(conjunto de test), vemos en que medida son clasificados correctamente por la red,
es decir, medimos el porcentaje de ejemplos bien clasificados (porcentaje de
aciertos).
Sea un vector de entrada q, ecuacin (2.14), cuyos elementos son intervalos,
ecuacin (2.15), la red nos proporcionar un vector de salida cuyos elementos son
tambin intervalos, dados por la ecuacin (2.17). Es necesario un criterio de
comparacin de dichos intervalos para decidir que clase se asocia con al vector de
entrada.
Sea la Entrada: { I q,1 , I q,2 ,L, I q,N } = { [ iqI ,1 , iqS,1 ] , [ iqI ,2 , iqS,2 ] , K , [ iqI ,N , iqS,N ] }
Sea la Salida:

{ Oq,1 , Oq,2 ,L, Oq,Ns } = { [ oqI ,1 , oqS,1 ] , [ oqI ,2 , oqS,2 ] , K , [ oqI ,Ns , oqS,Ns ] }

En nuestro trabajo hemos usado cinco criterios de comparacin diferentes,


algunos de los cuales han sido propuestos por Ishibuchi en la referencia [6].
Definicin 1 :

O q,h < 1 O q,k

o qS,h < o qS,k

(2.68)

Definicin 2 :

O q ,h < 2 O q , k

o qI ,h < o qI ,k

(2.69)

Definicin 3 :

O q,h < 3 O q,k o qI ,h < o qI ,k


O q ,h < 4 O q ,k

Definicin 4 :

Definicin 5 : Sea Y = { k

y o qS,h < o qS,k

o qS,h < o qI ,k

oqS, k 0.5 y oqI , k 0.5 para k = 1, L , Ns}

(2.70)
(2.71)
(2.72)

se asigna la clase k si el conjunto solo contiene un elemento

Definimos la siguiente regla de clasificacin, decimos que se asigna la clase


k al vector de entrada Iq para cada una de las cuatro primeras definiciones
anteriores (subndice i) si se cumple:
O q ,h < i O q , k

para

h = 1,2, L , Ns

- 46 -

con

hk

(2.73)

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

Para la definicin 5, se asignar la clase k en caso de que sea el nico


intervalo cuyos lmites superior e inferior sean mayores que 0.5. En cualquier otro
caso, no se clasifica correctamente.
Oqk

Oqh

Definicin 1

oSqh

oSqk

Oqk

Definicin 2

Definicin 3

Oqh
I
oqk

I
oqh

Oqk

Oqh
I
oqh

I
oqk

oSqk

Oqk

Oqh

Definicin 4

oSqh

I
oSqh oqk

Fig.3. Ilustracin de los cuatro primeros criterios de comparacin.


En nuestros experimentos utilizaremos las cinco definiciones anteriores para
medir el porcentaje de aciertos.

2.2.3. Codificacin mediante Probabilidades


Este mtodo fue descrito por Ahmad y Tresp en la referencia [9].
El mtodo est basado en la estimacin de las probabilidades asignadas a las
clases dadas ciertas entradas desconocidas. Despus de la estimacin, se asigna el
patrn con entradas desconocidas a la clase que tiene mayor probabilidad. As, no
es necesario un entrenamiento previo de la red con entradas desconocidas.
El clculo de las probabilidades para el caso de Mutilayer Feedforward
implica el clculo de una integral, la cual es obtenida utilizando tcnicas de
integracin numrica. De esta forma, la complejidad computacional crece
exponencialmente con el nmero de entradas desconocidas. Ahmad y Tresp en
trabajos previos [8], demostraron que esta metodologa slo era eficiente cuando
se usaba en redes con funciones Gausianas normalizadas.
Los autores desarrollaron para este mtodo un mecanismo de aproximacin
para el clculo de la integral que fuese ms eficiente y propusieron una solucin
que cumple, que la complejidad no aumenta con el nmero de entradas
desconocidas.
A continuacin describimos en qu consiste este mtodo.

- 47 -

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

Asumimos que la red neuronal ha sido entrenada para clasificar un cierto


patrn en una clase NN(x), es decir, que puede estimar la expectacin E(y|x) de la
clase y para un cierto patrn de entrada x. La red debera ser capaz de calcular
dicha expectacin si el patrn posee entradas desconocidas. Sea xc las entradas
conocidas y xu las entradas desconocidas de un patrn x dado. La expectacin se
calcular mediante la ecuacin (2.74):

E ( y | x c ) = E ( y | x c , x u ) P( x u | x c ) dx u

1
c

P( x )

NN ( x c , x u ) P( x c | x u ) dx u

(2.74)

Para una red entrenada NNi(x)=P(classi|x) por lo que basta con sustituir en
la ecuacin anterior los valores de E(y|xc) por P(classi|xc) y de NN(xc,xu) por
NNi(xc,xu)= P(classi| xc,xu).
Esta integracin sigue siendo problemtica. Se propone entonces, en el
mtodo de Ahmad y Tresp, una nueva aproximacin utilizando Ventanas de
Parzen.
Dado un conjunto de N patrones entrenados {(xk,yk) | k=1,...,N} podemos
aproximar la probabilidad de que se de un cierto patrn x como:
P( x )

(2.75)

G ( x; x k , s )
k =1

Donde G(x;xk,) es una gausiana normalizada centrada en el dato xk del


conjunto de entrenamiento y con varianza 2. Dicha gausiana se puede expresar
mediante la ecuacin (2.76).
G( x ; x k ,s ) =

1
2

(2 p s )

1
exp
x - xk
2 s 2

(2.76)

D es la dimensin del espacio de entrada (nmero de entradas de un patrn).


Por otra parte, podemos representar el conjunto de datos de entrenamiento
en dos dimensiones tomando x1 (abscisas) como coordenadas conocidas del patrn
xk y x2 (ordenadas) las coordenadas desconocidas de dicho patrn.
Se puede estimar la distribucin de patrones de entrada usando Ventanas
de Parzen de forma que, para un patrn con xc, vector de entradas conocidas,
queda la ecuacin (2.77):
P( x c )

G ( x c ; x c ,k , s )
N
k =1

- 48 -

(2.77)

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

Donde G(xc;xc,k, ) es una gausiana proyectada en la dimensin de las


entradas conocidas, xc son los componentes conocidas del patrn considerado para
el test y xc,k son las correspondientes componentes de un patrn xk del conjunto de
entrenamiento.
La probabilidad de una clase dado un patrn con entradas conocidas xc viene
dada a travs de la ecuacin (2.78).
N

E( y x ) =

NN ( x c , x u ) G( x c , x u ; x k ,s )dx u
k =1

(2.78)

G ( x c , x c ,k , s )
k =1

En este mtodo se propone la siguiente aproximacin para la integral:

NN ( x

, x u ) G ( x c , x u ; x k , s )dx u NN ( x c , x u ,k ) G ( x c ; x c,k , s )

(2.79)

Donde NN(xc,xu,k) es la prediccin de la red que se obtiene si sustituimos los


componentes del patrn de entradas desconocidas por dichas componentes
tomadas del conjunto de entrenamiento, la cuales son conocidas.
Al final, lo que se obtiene con esta aproximacin como probabilidad de una
clase es la ecuacin (2.80)
N

E( y x )

NN ( x c , x u,k ) G( x c ; x c,k ,s )
k =1

(2.80)

G ( x c ; x c ,k , s )
k =1

Para realizar el clculo de la ecuacin anterior es necesario fijar previamente


un valor adecuado de en las gausianas.
En la referencia [9] se proponen dos mtodos para realizar su clculo.
Ambos consisten en buscar el valor de probando diferentes valores y quedarnos
con aquel que proporcione una mayor eficiencia, en el primer caso del logaritmo
de la expectacin de xk y en el segundo del valor de la ecuacin (2.80).
En nuestra investigacin hemos usado el primer mtodo. En l se parte de
un intervalo inicial en el cual estar contenido el valor final de . Definimos una
particin de dicho intervalo encontrando un conjunto de valores para igualmente
espaciados. Para este conjunto se calcula, para los diferentes patrones del conjunto
de entrenamiento, la expectacin para los diferentes valores de mediante la
ecuacin (2.81).

- 49 -

2.2. PROCEDIMIENTOS DE UTILIZACIN DE ENTRADAS DESCONOCIDAS

~
P(x k )

1
N -1

G( x k ; x l , )

(2.81)

l =1, l k

Finalmente se escoge el valor de que haga mxima la expresin de la


ecuacin (2.82):
~

log P ( x k )
k

(2.82)

2.2.4. Codificacin de entradas binarias, que no utiliza


entradas desconocidas en el entrenamiento
Este mtodo descrito en [9], solo es aplicable para el caso de entradas
binarias, por lo que su uso es bastante limitado.
El mtodo utiliza un entrenamiento sin entradas desconocidas de la red
Multilayer Feedforward con Backpropagation.
Despus, en el conjunto de test se sustituyen las entradas desconocidas por
un valor calculado a partir de la ecuacin (2.83).

inputi =

ri, j input j m j
j

(2.83)

ri, j m j
j

Donde:
-mj es la componente de un vector que identifica si la entrada j de un cierto
patrn de entrada, input j es desconocida o no. Si es desconocida mj valdr
0 y si es conocida valdr 1.
-r es una matriz de coeficientes de redundancia (denominados as en la
referencia) cuyos elementos ri,j se calculan a partir de la ecuacin (2.84).
n

ri , j =

input k ,i input k , j
k =1

Donde n representa el nmero de patrones de entrada.

- 50 -

(2.84)

2.3. METODOLOGA

2.3. Metodologa
En primer lugar se realiz una recopilacin bibliogrfica para seleccionar
los mtodos ms representativos de mecanismos de codificacin de entradas
desconocidas, lo cules hemos descrito antes.
Para realizar el estudio hemos utilizado la siguiente metodologa.

Primero escogemos las bases de datos del repositorio UCI, que


utilizaremos e introduciremos en ellas entradas desconocidas.

Escogemos para cada problema la arquitectura de red adecuada.

Despus realizamos un proceso de entrenamiento y test. Se entrenarn


varias redes para cada arquitectura con diferentes inicializacin de
pesos y particiones de datos. Escogeremos el punto de convergencia
(pesos) de cada red entrenada utilizando cros-validacin y
realizaremos el test de las diferentes redes para obtener el porcentaje
de aciertos.

Por ltimo se analizarn los resultados y compararn los resultados de


los diferentes mtodos.

2.3.1. Eleccin de bases de datos


Una vez seleccionados los diferentes mtodos hicimos una seleccin de los
problemas que utilizaramos para evaluar la eficiencia de los mismos.
Dichos problemas fueron escogidos de entre los que estn accesibles de
forma pblica en la Universidad de California en el UCI repository of machine
learning databases. En el captulo primero dimos una descripcin detallada de
dichos problemas.
Escogimos en total 19 bases de datos cuyos nombres son los siguientes:
Abalone (ABALONE), Balance Scale Weight & Distance (BALANCE),
Cylinder Bands (BANDS), BUPA Liver Disorders (BUPA), Credit Approval
(CREDITO), Display1 (DISPLAY1), Display2 (DISPLAY2), Glass Identification
(GLASS), Heart Disease (HEART), Image Segmentation (IMAGEN), Mushroom
(MUSHROOM), The Monks Problems (MOK1, MOK2, MOK3), Musk (MUSK),
Pima Indians Diabetes (PIMA), Thyroid Domain (THYROID), 1984 U.S.
Congressional Voting Records (VOTE), Wisconsin Diagnostic Breast Cancer
(WDBC).

- 51 -

2.3. METODOLOGA

Las bases de datos pblicas escogidas en general no contienen entradas


desconocidas. Por ello, el primer paso fue generar a partir de las bases disponibles
unas nuevas bases de datos con entradas desconocidas. El procedimiento seguido
se detalla a continuacin.
Para cada uno de los problemas hemos generado cinco nuevos problemas
introduciendo aleatoriamente entradas desconocidas en los conjuntos de
entrenamiento y test. El nmero de entradas desconocidas introducido en los datos
vara segn los porcentajes 5%, 10%, 20%, 30%, 40% sobre el total de entradas.
Entendemos como total de entradas para un cierto conjunto (de entrenamiento o
test) el nmero que se obtiene multiplicando el nmero de ejemplos de dicho
conjunto por el nmero de entradas de cada ejemplo.
Las entradas que tomaremos como desconocidas entre el total de cada uno
de los conjuntos (de entrenamiento y test) se seleccionarn de forma aleatoria y
uniformemente distribuida entre el conjunto total de entradas. El nmero de
entradas que tomaremos como desconocidas coincidir con el porcentaje deseado.
Como resultado final, obtenemos por cada problema, cinco nuevos
problemas diferentes con entradas desconocidas tanto en el conjunto de
entrenamiento como en el de test:
-

Con 5% de entradas desconocidas.

Con 10% de entradas desconocidas.

Con 20% de entradas desconocidas.

Con 30% de entradas desconocidas.

Con 40% de entradas desconocidas.

En total tendremos 95 problemas con entradas desconocidas y 19 sin


entradas desconocidas (0% de entradas desconocidas), 114 problemas diferentes.
As, tendremos para cada problema, seis posibles bases de datos para el
entrenamiento y seis para el test, y si combinamos los diferentes porcentajes de
entradas desconocidas obtendremos resultados para 36 diferentes problemas por
cada problema original. Esto nos permitir estudiar la influencia de las entradas
desconocidas, tanto en el entrenamiento, como en el test. Para ello, veremos como
influyen estos factores en el porcentaje de clasificacin (porcentaje de aciertos).
Como hemos visto, para cada base de datos tenemos divididos los datos en
un conjunto de datos para el entrenamiento y un conjunto de datos para el test. El
conjunto de datos de entrenamiento, lo dividimos a su vez en dos, uno para el
entrenamiento propiamente dicho y otro para escoger el punto de convergencia
- 52 -

2.3. METODOLOGA

mediante el mtodo de cros-validacin, que veremos ms adelante. El porcentaje


final de datos de cada uno de estos conjuntos sobre el total de datos fue de 60%
para el conjunto de entrenamiento, 20% para el conjunto de cros-validacin y
20% para el conjunto de test.
Cuando realicemos los entrenamientos de las redes, hablaremos de usar
diferentes particiones para los datos. Con esto lo que queremos decir es que los
porcentajes de ejemplos que tomaremos para cada conjunto de datos sern como
se indic antes, pero los ejemplos que asociaremos a cada conjunto se escogern
aleatoriamente entre el total de ejemplos de la base de datos.

2.3.2. Eleccin de la arquitectura


Necesitamos escoger la arquitectura de red que vamos a utilizar en cada
problema. Utilizaremos una arquitectura Multilayer Feedforward con una sola
capa oculta.
El nmero de unidades de la capa de entrada y el de la capa de salida lo
determinar el problema concreto. Nos queda determinar el nmero de unidades
en la capa oculta.
Tendremos que distinguir a la hora de entrenar las redes entre los mtodos
que codifican las entradas desconocidas con aritmtica de intervalos y los que no
utilizan intervalos. Bsicamente, la diferencia radica en que en el primer caso, las
entradas se codifican mediante un intervalo, y se utiliza como algoritmo de
aprendizaje Backpropagation generalizado a intervalos, y en el segundo caso, no
se usan intervalos sino que las entradas desconocidas se codifican segn indique
cada mtodo concreto, y el algoritmo de entrenamiento ser Backpropagation.
Para escoger el nmero de unidades ocultas de las redes utilizaremos el
procedimiento de prueba y error. Para ello, partiremos de varias arquitecturas con
diferente nmero de unidades en la capa oculta.
Entrenamos dichas redes con el algoritmo Backpropagation. Como ya
hemos dicho antes, en los mtodos de aritmtica de intervalos usaremos para
entrenar los algoritmos Backpropagation generalizados a intervalos que
describimos anteriormente, y en el resto de mtodos Backpropagation.
Durante el entrenamiento utilizaremos dos conjuntos de datos: el de
entrenamiento propiamente dicho (60% de datos) y el de cros-validacin (20 % de
datos).

- 53 -

2.3. METODOLOGA

Si durante el proceso de entrenamiento alguna de las redes no converge se


repite el entrenamiento utilizando diferente inicializacin de la red, es decir,
diferente inicializacin de los pesos de la red.
Como resultado del entrenamiento de cada red analizaremos el error
cuadrtico medio, ECM, y el porcentaje de aciertos en la clasificacin, POR.
Definimos el ECM como la suma para todos los patrones de entrenamiento
del error Ep utilizado en el algoritmo de aprendizaje dividido por el nmero total
de patrones y el nmero de neuronas de salida de la red:
ECM =

1
N Nsalida

Ep

(2.85)

i =1

El porcentaje de aciertos en la clasificacin se calcula sumando el nmero


de patrones de entrada bien clasificados y dividiendo por el nmero total de
patrones. Para determinar cuntos patrones estn bien clasificados, se estudian
para un patrn de entrada, las salidas (valores de las neuronas de salida) de la red
que ste proporciona. Si el mximo valor de salida coincide con el objetivo de
dicho patrn, podemos decir que ste ha sido clasificado correctamente: hay un
acierto. As:
POR =

aciertos

(2.86)

Una vez acabado el entrenamiento hay que determinar el punto de


convergencia de la red (iteracin donde se alcanza el mnimo del error).
El mtodo que utilizaremos durante toda la Tesis para la seleccin del punto
de convergencia es cros-validacin.
Dicho mtodo consiste en medir el Error cuadrtico medio (ECMCROS) y
el Porcentaje de correcta clasificacin (PORCROS) que se obtienen durante el
entrenamiento utilizando el conjunto de datos para cros-validacin. El punto de
convergencia ser aquel que proporcione un valor de ECM-CROS mnimo.
Para finalizar el procedimiento de prueba y error falta, a partir de los
resultados obtenidos para las diferentes redes, escoger aquella con un nmero de
unidades oculta adecuado. Dicha red ser aquella que proporcione el mayor valor
para el porcentaje de acierto de cros-validacin, es decir, PORCROS mximo.
En el entrenamiento de las redes se han escogido los siguiente parmetros:
Intervalo de inicializacin de pesos=0.1, Momento=0.05,Paso de adaptacin=0.1.

- 54 -

2.3. METODOLOGA

Entendemos por intervalo de inicializacin de pesos, el valor que utilizamos


para definir el intervalo dentro del cual se escogern aleatoriamente los valores
iniciales de los pesos
El proceso de seleccin de la arquitectura que hemos descrito hasta aqu se
realizar para cada uno de los problemas, es decir, para los problemas generados
con los diferentes porcentajes de entradas desconocidas 0%, 5%, 10%, 20%, 30%,
40%, y para los casos de aritmtica de intervalos, codificando en este caso las
entradas desconocidas mediante un intervalo en lugar de mediante un valor. Al
final tendremos las arquitecturas de redes idneas para cada caso.
En la Tabla 1 tenemos la arquitectura de las redes obtenidas para diferentes
bases de datos con un cierto porcentaje de entradas desconocidas (una red
diferente por cada porcentaje y problema) para el caso de la utilizacin del
mtodo descrito en el apartado 2.2.1 (mtodo 1).

Tabla 1. Arquitectura de las redes con entradas desconocidas.


PROBLEMA Ninput Nsalida
ABALONE
BALANCE
BANDS
BUPA
CREDITO
DISPLAY1
DISPLAY2
GLASS
HEAR
IMAGE
MUSHROOM
MOK1
MOK2
MOK3
MUSK
PIMA
THYROIDES
VOTING
WDBC

8
4
39
6
15
7
14
10
13
19
22
6
6
6
166
8
21
16
30

3
3
2
2
2
10
10
6
2
7
2
2
2
2
2
2
3
2
2

Nhidden(% de entradas desconocidas)


0%
5% 10% 20% 30% 40%
17
18
17
18
15
15
6
12
18
25
25
13
13
13
16
14
12
13
8
15
26
27
24
18
9
15
14
9
9
18
15
15
23
30
35
47
21
33
27
32
27
39
6
12
13
17
16
15
6
9
21
21
20
19
13
15
20
15
18
33
10
6
16
10
15
24
5
10
14
17
24
24
14
19
20
33
25
18
2
6
9
15
18
15
7
9
9
9
12
10
15
14
28
18
24
29
3
1
1
1
3
1
13
10
6
9
8
12
2
3
10
11
21
21

- 55 -

2.3. METODOLOGA

Por ejemplo, la red que tiene un porcentaje de 5% de entradas desconocidas


en la base de datos ABALONE tendr ocho unidades en la capa de entrada
(Ninput), tres unidades en la capa de salida (Nsalida) y dieciocho unidades en la
capa oculta (Nhidden con 5%).
En la Tabla 2, se muestra el nmero de unidades de la capa oculta de cada
una de las redes seleccionadas para aritmtica de intervalos usando en el
entrenamiento el algoritmo de Hernndez (mtodo 2), y el algoritmo de Ishibuchi
(mtodo 3). El nmero de unidades en la capa de entrada y en la capa de salida de
las redes es el mismo que figuraba en la Tabla 1.
Tabla 2. Arquitectura de redes con entradas desconocidas y codificacin con
aritmtica de intervalos para los mtodos 2 y 3.
Nhidden para Aritmtica
Nhidden para Aritmtica
Ishibuchi (normal)
Hernndez
PROBLEMA 5% 10% 20% 30% 40% 5% 10% 20% 30% 40%
ABALONE
2
1
1
1
1
3
3
2
1
1
BALANCE
16
4
12
1
1
6
12
3
2
6
BANDS
6
1
1
1
1
22
13
13
2
1
BUPA
1
1
1
1
1
3
2
1
1
1
CREDITO
3
1
1
1
1
4
5
1
1
1
DISPLAY1
11
21
1
2
1
8
13
5
5
6
DISPLAY2
24
18
1
1
1
22
28
8
5
5
GLASS
6
9
15
1
1
7
8
6
19
6
HEAR
15
12
6
1
1
15
8
4
3
3
IMAGE
18
17
9
1
1
16
16
17
10
14
MUSHROOM 12
12
7
1
1
7
7
3
3
2
MOK1
1
1
1
1
1
3
9
5
1
1
MOK2
2
1
1
1
1
12
11
1
1
1
MOK3
5
3
2
1
1
5
3
2
3
7
MUSK
16
4
1
1
1
15
6
3
3
2
PIMA
2
1
1
1
1
12
3
3
3
1
THYROIDES 3
1
1
1
1
3
1
1
1
1
VOTING
7
8
5
3
1
7
10
8
3
3
WDBC
3
7
1
1
1
10
9
10
8
7
Tendremos una arquitectura para cada uno de los diferentes porcentajes de
entradas desconocidas, Tabla 1, y lo mismo para cada uno de los 2 mtodos de
aritmticas de intervalos, Tabla 2.

- 56 -

2.3. METODOLOGA

2.3.3. Proceso de entrenamiento y test


El siguiente paso ser realizar el entrenamiento de seis redes de cada una de
las escogidas en el apartado anterior. Escogeremos para cada una de las seis redes
diferente inicializacin de pesos y particin de datos. De esta forma, se pretende
que el resultado obtenido sea independiente de la inicializacin de la red, ya que
se calcular al final la media de la eficiencia de las seis redes.
Realizaremos el entrenamiento para cada uno de los problemas y con cada
conjunto de entrenamiento (porcentajes 0%, 5%, 10%, 20%, 30%, 40%).
Para cada red se escoge el punto de convergencia utilizando el mtodo de
cros-validacin descrito en el apartado anterior. El punto de convergencia nos
proporcionar la arquitectura final de la red (valor de los pesos). Es decir,
tendremos el resultado de la red entrenada (nmeros de unidades de las diferentes
capas y pesos) que hay que usar para resolver cada problema.
Conocida la red entrenada (estructura y pesos), para medir la eficiencia de
los diferentes mtodos realizamos el test de las mismas para cada mtodo y con
los diferentes conjuntos de test (diferentes porcentajes de entradas desconocidas).
Esto se repite para las seis redes y se promedia el resultado obteniendo un error.
Finalmente, obtenemos el porcentaje medio de correcta clasificacin en el test con
un error.
Para calcular dicho resultado se evala el valor medio de los porcentajes, la
desviacin estndar y a partir de esta el valor del error, segn la ecuacin (2.87).
PORMEDIO =
Desv =
Error =

POR

(2.87)

Nredes

(POR - PORMEDIO )2
Nredes - 1

Desv
Nredes

De los resultados obtenidos podemos analizar cmo afecta en un mtodo


concreto, la introduccin de entradas desconocidas en los conjuntos de
entrenamiento y/o test. Despus podemos comparar los resultados obtenidos y ver
que mtodo funciona mejor.

- 57 -

2.4. RESULTADOS EXPERIMENTALES

2.4. Resultados Experimentales


En este captulo presentamos una comparacin de los 5 mtodos de
codificacin de entradas desconocidas.
Para el mtodo 4 (descrito en el apartado 2.2.3) de codificacin mediante
probabilidades, slo se consideran los porcentajes de entradas desconocidas en el
conjunto de test, ya que el mtodo no exige un entrenamiento previo con entradas
desconocidas.
El mtodo 5 de codificacin (descrito en el apartado 2.2.4) como vimos,
slo es aplicable al caso de entradas binarias, por lo cual su uso es bastante
restringido. Este mtodo lo hemos aplicado solo a los problemas DISPLAY1 y
DISPLAY2 y utilizando entradas desconocidas solo en el conjunto de test ya que
tampoco requiere un entrenamiento con entradas desconocidas.
En la comparacin se han utilizado un total de 19 problemas y se ha medido
la eficiencia para diferentes porcentajes de entradas desconocidas en los
problemas: 0%, 5%, 10%, 20%, 30% y 40%.
Veremos que los mtodos basados en la generalizacin de Backpropagation
a aritmtica de intervalos y con codificacin durante el entrenamiento de las
entradas desconocidas en el intervalo [0,1] dan el mejor resultado.
Denominamos a los mtodos segn el orden en que los hemos descrito:
Mtodo 1: Codificacin mediante un valor.
Mtodo 2: Aritmtica de intervalos con el algoritmo de Hernndez.
Mtodo 3: Aritmtica de intervalos con el algoritmo de Ishibuchi.
Mtodo 4: Codificacin mediante probabilidades.
Mtodo 5: Codificacin de entradas binarias.
Usaremos, como ya dijimos antes, 19 problemas en los cuales se ha
introducido en el total de datos, los siguientes porcentajes de entradas
desconocidas: 0 (problema original sin entradas desconocidas), 5, 10, 20, 30 y 40.
Obtendremos a partir de aqu 114 problemas. Cada conjunto de datos de un
problema se divide en un conjunto de datos para el entrenamiento (60% del total
de datos), un conjunto de datos para cros-validacin (20%) y un conjunto de datos
para el test (20%).

- 58 -

2.4. RESULTADOS EXPERIMENTALES

Hemos entrenado seis redes diferentes usando Backpropagation para cada


uno de los problemas, con cada uno de los conjuntos de datos de entrenamiento
(0, 5, 10, 20, 30 y 40 % de entradas desconocidas) y utilizando la codificacin por
valor (mtodo 1). Hemos calculado el punto de convergencia usando crosvalidacin, y realizado el test de dichas redes, con los diferentes conjuntos de
datos de test, midiendo el porcentaje de correcta clasificacin segn la regla de
clasificacin que escoge la clase con mejor salida como la correcta.
Tambin hemos realizado el test de las redes entrenadas, utilizando la
codificacin de entradas desconocidas en el conjunto de test dada por los mtodos
4 y 5.
Por ltimo, hemos entrenado y testeado 6 redes utilizando la extensin de
Backpropagation a aritmtica de intervalos con el algoritmo de aprendizaje
descrito por Hernndez (mtodo 2) y otras 6 con el algoritmo utilizado por
Ishibuchi (mtodo 3).
En todos los casos, utilizamos la media de los resultados de las 6 redes
entrenadas de forma que los resultados finales son calculados con un error, es
decir, no dependern de la inicializacin de los pesos, datos, etc.
En todos los casos la eleccin de punto de convergencia de la red se realiz
utilizando cros-validacin.
En las Tablas de la 5 a la 23 del apndice I de la Tesis Doctoral podemos
encontrar los resultados para los mtodos 1, 4 y 5. Cada tabla representa el
resultado del proceso de entrenamiento y test de una cierta base de datos. Por
ejemplo, en la Tabla 5 podemos ver los resultados para la base de datos
ABALONE.
En las Tablas de la 24 a la 66 del apndice I de la Tesis se pueden encontrar
los resultados obtenidos para los mtodos que utilizan aritmtica de intervalos
(mtodos 2 y 3).
En el test de aritmtica de intervalos se han usado 5 reglas de clasificacin
diferentes que se describieron en las ecuaciones (2.68), (2.69), (2.70), (2.71),
(2.72). De ellas, las de porcentaje POR4 y POR5 son las ms restrictivas y
proporcionan un porcentaje de aciertos muy inferior.
En cuanto a las dems, POR1, POR2 y POR3 los resultados son muy
parecidos, excepto para las bases de datos BALANCE, DISPLAY1 y GLASS en
donde el porcentaje POR1 ofrece los mejores resultados. Por ello, nos centramos
es esta primera regla de clasificacin. En ella se utiliza el lmite superior del

- 59 -

2.4. RESULTADOS EXPERIMENTALES

intervalo de salida y se considera que la entrada es clasificada en la clase cuyo


lmite superior es mayor:
[a,b]<[c,d] b<d
En las Tablas de la 24 a la 42 del apndice I de la Tesis pueden verse los
resultados obtenidos utilizando el algoritmo de entrenamiento de Hernndez y en
las Tablas de la 43 a la 61 los resultados de aplicar el algoritmo de Ishibuchi.
Se dan los resultados para los cinco criterios de clasificacin nombrados
como POR1, POR2, POR3, POR4 y POR5.
Cada tabla corresponde a una base de datos diferente y en ella tenemos los 6
posibles porcentajes de entradas desconocidas usadas en el entrenamiento (6
problemas distintos) y los 6 posibles conjuntos de test.
Por ejemplo, para la Tabla 24 se dan los resultados para el problema
ABALONE para los cinco criterios de clasificacin. Para cada criterio, por
ejemplo POR1, una cierta fila representa el entrenamiento de la red con un cierto
porcentaje de entradas desconocidas. Para esa fila, cada columna corresponde al
test realizado con los 6 posibles conjuntos de test (0, 5, 10, 20, 30 y 40 % de
entradas desconocidas). De esa forma podemos ver cul es la influencia de
introducir diferentes porcentajes de entradas desconocidas tanto en los conjuntos
de entrenamiento como en los de test.
En general, la primera conclusin que se puede obtener al mirar estos
resultados, es que la eficiencia de las redes disminuye al aumentar el porcentaje de
entradas desconocidas, tanto en el entrenamiento como en el test y que la rapidez
del deterioro de la eficiencia depende en gran medida de la base de datos que
estemos utilizando.
Esta situacin ocurre tambin en el caso del 0% de entradas desconocidas en
el test, es decir, en la respuesta de la red entrenada ante datos sin entradas
desconocidas. Conforme se aumenta el porcentaje de entradas desconocidas en el
entrenamiento se observa un decremento de la eficiencia de la respuesta de la red
ante entradas normales (conocidas). Ello hace que debamos limitar el porcentaje
de entradas desconocidas a utilizar en el entrenamiento. Consideramos que de los
valores probados el ms idneo es el del 5%.
En las Tablas de la 62 a la 66 del apndice I de la Tesis se da una
comparacin entre los mtodos 2 y 3. Se compara la eficiencia de los mtodos 2 y
3 para cada una de las 5 reglas de clasificacin y para el caso en que los
porcentajes de entradas desconocidas en el entrenamiento y test sean los mismos.

- 60 -

2.4. RESULTADOS EXPERIMENTALES

En principio, el uso del mismo porcentaje parece lgico. Adems, es lo que


sugieren algunos artculos de investigacin publicados [17], en donde se muestra
que las distribuciones del conjunto de entrenamiento y test deben ser lo ms
parecidas posible. Ms adelante veremos un estudio ms detallado de estos
resultados.
Analizaremos a continuacin los resultados obtenidos para cada mtodo y
finalmente compararemos unos mtodos con otros.
En primer lugar, a partir de las Tablas de la 5 a 23, podemos observar que el
mtodo 1 presenta alta variabilidad en el test y la eficiencia depende del problema
particular. En general, la eficiencia decrece al aumentar el nmero de entradas
desconocidas, tanto en el test como en el entrenamiento. En algunos problemas
este decrecimiento es lento pero en otro existe un porcentaje a partir del cual el
mtodo funciona muy mal.
Como ejemplo, tomemos los problemas PIMA y DISPLAY1.
A partir de las Tablas 20 (problema PIMA) y 10 (problema DISPLAY1)
construimos las figuras 4 y 5 respectivamente, en las cuales representamos el
porcentaje de correcta clasificacin para las diferentes redes entrenadas con el
mtodo 1 (5, 10, 20, 30 y 40 % de entradas desconocidas) y testeado para cada
uno de los diferentes conjuntos de test (5, 10, 20, 30 y 40 % de entradas
desconocidas).
En la figura 4, vemos que para el problema PIMA utilizando el mtodo 1, la
eficiencia decrece suavemente al aumentar el porcentaje de entradas desconocidas
en el entrenamiento y en el test, aunque este ltimo cambio no es tan evidente (es
aun ms lento).
Sin embargo, para el problema DISPLAY1, figura 5, vemos que al pasar de
0% a 5% de entradas desconocidas en el test hay un cambio brusco, el mtodo
deja de funcionar. Tambin se observa que el porcentaje en el entrenamiento
prcticamente no afecta el resultado.
Llegamos pues a la conclusin que ya vimos, de que el mtodo 1 presenta
una alta variabilidad en el test al variar el porcentaje de entradas desconocidas y la
eficiencia depende en gran medida del problema particular.
En cuanto a los mtodos 2 y 3 podemos ver en algunos problemas que existe
un porcentaje de entradas desconocidas en el entrenamiento a partir del cual el
mtodo deja de funcionar (la eficiencia disminuye sbitamente). El valor de dicho

- 61 -

2.4. RESULTADOS EXPERIMENTALES

porcentaje depende del problema y podemos observar que existen 3 tipos de


situaciones.
Hay problemas en los cuales el mtodo 2 funciona y el mtodo 3 tiene un
porcentaje lmite en el entrenamiento. Por ejemplo, en la figura 6 vemos que el
mtodo 2 funciona bien para el problema MUSHROOM y en la figura 7 vemos
que el mtodo 3 no funciona (baja sbitamente su eficiencia) para el mismo
problema a partir de un 30% de entradas desconocidas en el entrenamiento. En las
figuras 8 y 9 tenemos la misma situacin para el problema CREDITO. Ahora el
mtodo 3 deja de funcionar a partir de un 40% de entradas desconocidas.
Otro caso es, que tanto el mtodo 2 como el mtodo 3 tienen un lmite en el
nmero de entradas desconocidas en el entrenamiento a partir del cual dejan de
funcionar. Las figuras 10 y 11 reflejan esta situacin para el problema PIMA. El
mtodo 2 no funciona a partir del 20% y el mtodo 3 no funciona a partir de un
10% de entradas desconocidas en el entrenamiento.
El ltimo caso, es que los dos mtodos funcionan bien. En la figura 12 y 13
podemos verlo para el problema VOTE. Hay un decrecimiento de la eficiencia al
aumentar el porcentaje de entradas desconocidas pero los mtodos funcionan.
Posteriormente veremos una comparacin ms exhaustiva entre los mtodos 2 y 3.
Comparemos ahora los diferentes mtodos entre s. Comparamos primero
los 4 primeros mtodos.
La aplicacin de entradas desconocidas, como vimos al principio del
captulo para algunos mtodos, solo tiene sentido si tambin se utilizan entradas
desconocidas en el proceso de entrenamiento. Por ello, para comparar los mtodos
entre s hemos escogido un porcentaje de entradas desconocidas en el
entrenamiento del 5%. Hemos elegido este porcentaje tal y como comentamos
antes, porque valores superiores suelen producir un empeoramiento de la
respuesta ante entradas conocidas, deteriorando el funcionamiento normal de la
red.
Representamos como antes para el mtodo 1 (con 5% de entradas
desconocidas en el entrenamiento), el mtodo 2 y 3 (con 5% de entradas
desconocidas en el entrenamiento) y el mtodo 4, los diferentes valores de la
eficiencia en funcin del porcentaje de entradas desconocidas en el test.
En la figura 14 y 15 podemos ver la comparacin de los 4 mtodos para los
problemas PIMA e IMAGEN respectivamente.

- 62 -

2.4. RESULTADOS EXPERIMENTALES

Vemos que el mtodo 4 funciona peor que los dems. Nosotros pensamos
que el mal funcionamiento del mtodo de probabilidad se puede deber a que las
aproximaciones que hacen sus autores a la hora de calcular las integrales no son
muy adecuadas.
En las figuras 16 y 17 se ha representado la eficiencia de los 5 mtodos para
los problemas DISPLAY1 y DISPLAY2 respectivamente y en las mismas
condiciones de antes (con 5% de entradas desconocidas en el entrenamiento).
Vemos que el mtodo 4 sigue funcionando mal y que el mtodo 5 funciona
bastante bien. Sin embargo a pesar de funcionar bien, el mtodo 5 presenta la
desventaja de que solo puede aplicarse a problemas con entradas binarias por lo
que su uso es bastante restringido.
Para estas dos bases de datos vemos que el mtodo 1 funciona muy mal. Ya
dijimos que la eficiencia de este mtodo dependa mucho de la base de datos a la
que se aplicar.
Como conclusin, podemos decir que el mtodo 1 da mejor eficiencia que el
mtodo 4 y que los mtodos que utilizan aritmtica de intervalos son los que
mejor resuelven la mayora de los problemas.
Por ello proponemos a continuacin una comparacin ms exhaustiva de los
mismos.
Comparacin entre mtodos de aritmtica de intervalos.
Como ya vimos, la diferencia bsica entre los mtodos 2 (de Hernndez) y 3
(de Ishibuchi) reside en que en el algoritmo de aprendizaje las funciones de error
propuestas son diferentes, y por lo tanto tambin lo son los algoritmos de
aprendizaje.
Nos referimos al mtodo de Hernndez como Algoritmo de Hernndez y
al mtodo de Ishibuchi lo denotaremos como Algoritmo de Ishibuchi.
Como vimos anteriormente en el test de aritmtica de intervalos se han
usado 5 reglas de clasificacin diferentes que se describen en las ecuaciones
(2.68), (2.69), (2.70), (2.71), (2.72).
Usaremos los 19 problemas que tenamos. Para cada problema, como
dijimos, se generaron 5 nuevos problemas con los diferentes porcentajes de
entradas desconocidas: 5, 10, 20, 30, 40. Tendremos 95 problemas a los que
aplicar estos mtodos.

- 63 -

2.4. RESULTADOS EXPERIMENTALES

80
60
40
20
0
Test 0%

Test 5%

0%

Test 10% Test 20% Test 30% Test 40%

ENTRENAMIENTO
5% 10% 20% 30%

40%

Fig.4. Porcentaje de correcta clasificacin en funcin del % de entradas


desconocidas para el problema PIMA. Mtodo 1.

80
60
40
20
0
Test 0%

Test 5%

0%

Test 10% Test 20% Test 30% Test 40%

ENTRENAMIENTO
5% 10% 20% 30%

40%

Fig.5. Porcentaje de correcta clasificacin en funcin del % de entradas


desconocidas para el problema DISPLAY1. Mtodo 1.

- 64 -

2.4. RESULTADOS EXPERIMENTALES

120
100
80
60
40
20
0
Test 0%

Test 5% Test 10% Test 20% Test 30% Test 40%

ENTRENAMIENTO
5% 10% 20% 30%

40%

Fig.6. Porcentaje de correcta clasificacin en funcin del % de entradas


desconocidas para el problema MUSHROOM. Mtodo 2.

120
100
80
60
40
20
0
Test 0%

Test 5% Test 10% Test 20% Test 30% Test 40%

ENTRENAMIENTO
5% 10% 20% 30%

40%

Fig.7. Porcentaje de correcta clasificacin en funcin del % de entradas


desconocidas para el problemas MUSHROOM. Mtodo 3.

- 65 -

2.4. RESULTADOS EXPERIMENTALES

100
80
60
40
20
0
Test 0%

Test 5% Test 10% Test 20% Test 30% Test 40%

ENTRENAMIENTO
5% 10% 20% 30%

40%

Fig.8. Porcentaje de correcta clasificacin en funcin del % de entradas


desconocidas para el problema CREDITO. Mtodo 2.

100
80
60
40
20
0
Test 0%

Test 5% Test 10% Test 20% Test 30% Test 40%

ENTRENAMIENTO
5% 10% 20% 30%

40%

Fig.9. Porcentaje de correcta clasificacin en funcin del % de entradas


desconocidas para el problema CREDITO. Mtodo 3.

- 66 -

2.4. RESULTADOS EXPERIMENTALES

76
74
72
70
68
66
64
62
60
Test 0%

Test 5%

Test 10% Test 20% Test 30% Test 40%

ENTRENAMIENTO
5% 10% 20% 30% 40%
Fig.10. Porcentaje de correcta clasificacin en funcin del % de entradas
desconocidas para el problema PIMA. Mtodo 2.

80
75
70
65
60
55
Test 0%

Test 5%

Test 10% Test 20% Test 30% Test 40%

ENTRENAMIENTO
5% 10% 20% 30%

40%

Fig.11. Porcentaje de correcta clasificacin en funcin del % de entradas


desconocidas para el problema PIMA. Mtodo 3.

- 67 -

2.4. RESULTADOS EXPERIMENTALES

100
95
90
85
80
75
Test 0%

Test 5% Test 10% Test 20% Test 30% Test 40%

ENTRENAMIENTO
5% 10% 20% 30%

40%

Fig.12. Porcentaje de correcta clasificacin en funcin del % de entradas


desconocidas para el problema VOTE. Mtodo 2.

100
95
90
85
80
75
70
Test 0%

Test 5% Test 10% Test 20% Test 30% Test 40%

ENTRENAMIENTO
5% 10% 20% 30%

40%

Fig.13. Porcentaje de correcta clasificacin en funcin del % de entradas


desconocidas para el problema VOTE. Mtodo 3.

- 68 -

2.4. RESULTADOS EXPERIMENTALES

80
60
40
20
0
Test 0%

Test 5%

Test 10% Test 20% Test 30% Test 40%

ENTRENAMIENTO
Mtodo 1 Mtodo 2 Mtodo 3 Mtodo 4
Fig.14. Porcentaje de correcta clasificacin en funcin del % de entradas
desconocidas en el test (5% en entrenamiento) para el problema PIMA.
Mtodo 1, 2, 3 y 4.

100
80
60
40
20
0
Test 0%

Test 5% Test 10% Test 20% Test 30% Test 40%

Mtodo 1

ENTRENAMIENTO
Mtodo 2 Mtodo 3

Mtodo 4

Fig.15. Porcentaje de correcta clasificacin en funcin del % de entradas


desconocidas en el test (5% en entrenamiento) para el problema IMAGEN.
Mtodo 1, 2, 3 y 4.

- 69 -

2.4. RESULTADOS EXPERIMENTALES

80
60
40
20
0
Test 0%

Test 5%

Test 10% Test 20% Test 30% Test 40%

ENTRENAMIENTO
Mtodo 1
Mtodo 4

Mtodo 2
Mtodo 5

Mtodo 3

Fig.16. Porcentaje de correcta clasificacin en funcin del % de entradas


desconocidas en el test (5% en entrenamiento) para el problema
DISPLAY1. Mtodo 1, 2, 3, 4 y 5.

80
60
40
20
0
Test 0%

Test 5%

Test 10% Test 20% Test 30% Test 40%

ENTRENAMIENTO
Mtodo 1 Mtodo 2 Mtodo 3
Mtodo 4 Mtodo 5
Fig.17. Porcentaje de correcta clasificacin en funcin del % de entradas
desconocidas en el test (5% en entrenamiento) para el problema
DISPLAY2. Mtodo 1, 2, 3, 4 y 5.

- 70 -

2.4. RESULTADOS EXPERIMENTALES

Para cada problema se entrenaron, como dijimos antes, 6 redes con diferente
inicializacin de pesos y se promediaron los resultados obteniendo un error.
Se estudio la eficiencia obtenida utilizando en el entrenamiento el
Algoritmo de Hernndez y el Algoritmo de Ishibuchi.
En las tablas de la 62 a la 66 del apndice I de la Tesis Doctoral se compara
la eficiencia de los algoritmos de Hernndez y Ishibuchi para el caso de igual
porcentaje de entradas desconocidas en el entrenamiento y test, y para las
diferentes reglas de clasificacin.
Para una cierta regla de clasificacin, por ejemplo POR1 (tabla 62) y una
cierta base de datos, se dan los diferentes porcentajes de entradas desconocidas y
la eficiencia obtenida para los algoritmos de Hernndez y Ishibuchi.
Para poder comparar los resultados, agruparemos los mismos en diferentes
categoras segn la eficiencia de un algoritmo sea mejor o peor que la del otro.
Realizamos la siguiente clasificacin:
1: Algoritmo de Hernndez igual que el de Ishibuchi.
2: Algoritmo de Hernndez mejor que el de Ishibuchi en menos del 2%.
3: Algoritmo de Hernndez mejor que el de Ishibuchi entre 2 y 10%.
4: Algoritmo de Hernndez mejor que el de Ishibuchi en ms del 10%.
5: Algoritmo de Hernndez peor que el de Ishibuchi en menos del 2%.
6: Algoritmo de Hernndez peor que el de Ishibuchi entre 2 y 10%.
7: Algoritmo de Hernndez peor que el de Ishibuchi en ms del 10%.
Por ejemplo, para el problema ABALONE y la regla de clasificacin POR1,
un 5% quiere decir que se ha usado 5% de entradas desconocidas en el conjunto
de entrenamiento y en el conjunto de test y se da la medida de la eficiencia del
algoritmo de Hernndez, 57.6, y la del algoritmo de Ishibuchi, 54.9. Como la
eficiencia del algoritmo de Hernndez es mayor que la de Ishibuchi en ms de un
2%, clasificamos este resultado en la categora 3.
Esta operacin se realiz con todos los problemas y reglas de clasificacin y
una vez obtenidas todas las categoras se procedi a contar los resultados.

- 71 -

2.4. RESULTADOS EXPERIMENTALES

En la Tabla 3, para cada una de las reglas de clasificacin hemos contado


cuantos problemas hay en cada categora (hay 95 problemas en total).
Tabla 3. Nmero de problemas en cada categora para las 5 reglas.

POR1
POR2
POR3
POR4
POR5

1
17
16
16
17
20

2
23
22
23
10
7

3
17
17
20
10
7

Categora
4
5
34
2
34
4
29
4
8
21
16
19

6
2
2
3
22
20

7
0
0
0
7
6

Estudiando esta clasificacin podemos ver qu algoritmo funciona mejor y


en que casos.
A partir de la Tabla 3, hemos dibujado un histograma para cada regla de
clasificacin, figura 18, en el cual representamos como barra central el nmero de
problemas en los cuales el algoritmo de Hernndez funciona igual que el de
Ishibuchi (categora 1), hacia la derecha las barras representan que el algoritmo de
Hernndez funciona mejor (categoras 2, 3 y 4) y hacia la izquierda representan
que funciona peor (categoras 5, 6 y 7).
Se observa que el algoritmo de Hernndez funciona mejor en la mayora de
los casos para las reglas de clasificacin POR1, POR2 y POR3 y slo en las reglas
POR4 y POR5, funciona mejor Ishibuchi.
Como ya se coment anteriormente, las reglas de clasificacin POR4 y
POR5 son demasiado estrictas y su porcentaje de aciertos es muy inferior a las
dems. Pensamos pues que no es muy interesante su uso.
En la Tabla 4 y la figura 19 se resumen el total de problemas que funcionan
mejor, peor o igual.
Tabla 4. Nmero de problemas finales que funcionan mejor, peor o igual.
POR1
POR2
POR3
POR4
POR5

Mejor Hernndez
74
73
72
28
30

Mejor Ishibuchi
4
6
7
50
45

- 72 -

Iguales
17
16
16
17
20

2.4. RESULTADOS EXPERIMENTALES

34

34

23

22

17

17

Mejor Algoritmo
de Ishibuchi

Mejor Algoritmo
de Hernndez
29

POR 1

17

16

Mejor Algoritmo
de Ishibuchi

23

22

20

Mejor Algoritmo
de Hernndez

POR 2

21
17

16

10
0

Mejor Algoritmo
de Ishibuchi

Mejor Algoritmo
de Ishibuchi

Mejor Algoritmo
de Hernndez

POR 3

20

19

POR 4

10

Mejor Algoritmo
de Hernndez

20
16
7

Mejor Algoritmo
de Ishibuchi

POR 5

Mejor Algoritmo
de Hernndez

Fig. 18. Comparacin entre el algoritmo de Hernndez y el algoritmo de


Ishibuchi utilizando cinco criterios diferentes de clasificacin.
17

16

16

74

POR1

17

20

50

45

28

30

POR4

POR5

72

73

POR2

POR3

Mejor Algoritmo de Hernndez


Mejor Algoritmo de Ishibuchi
Iguales

Fig. 19. Comparacin entre el Mtodo 2 y el Mtodo 3.

- 73 -

2.4. RESULTADOS EXPERIMENTALES

Para el primer criterio de clasificacin POR1, que anteriormente


comentamos que era el ms idneo, vemos que hay 74 problemas en los que
funciona mejor el algoritmo de Hernndez, 4 en los que es mejor el algoritmo de
Ishibuchi y 17 en los que funcionan igual.
Podemos concluir que si consideramos el primer criterio POR1 como el
usual y ms aconsejable, el algoritmo de Hernndez funciona mejor que el de
Ishibuchi.
Como conclusin final, podemos recomendar el uso del algoritmo de
Hernndez (mtodo 2) como el ms eficiente para la codificacin de entradas
desconocidas.

- 74 -

2.5. CONCLUSIONES

2.5. Conclusiones
En este captulo hemos presentado una comparacin de 5 mtodos de
codificacin de entradas desconocidas.
La comparacin se realiz partiendo de 19 problemas en los cuales se
introdujeron 6 diferentes porcentajes de entradas desconocidas, 0, 5, 10, 20, 30 y
40 %, obteniendo as un total de 95 problemas sobre los que medir la eficiencia de
los mtodos.
La comparacin final entre diversos mtodos nos llev a las siguientes
conclusiones.
Si analizamos los resultados para los diferentes porcentajes de entradas
desconocidas en el entrenamiento y test podemos ver la influencia de los mismos
sobre los diferentes mtodos.
As, para el mtodo 1 se observa que funciona en general bien, pero presenta
alta variabilidad en el test al variar el porcentaje de entradas desconocidas. La
eficiencia depender en gran medida del problema particular. En algn problema
hemos encontrado un porcentaje de entradas desconocidas en el entrenamiento a
partir del cual el mtodo deja de funcionar bien.
En los mtodos con aritmtica de intervalos hemos encontrado que en
general el mtodo 2 (Hernndez) funciona mejor que el 3 (Ishibuchi) para las 3
primeras reglas de clasificacin que hemos utilizado. Las otras 2 reglas son muy
restrictivas (pueden quedar ejemplos sin clasificar) por lo que creemos que las
conclusiones que se puedan sacar de su funcionamiento no son muy relevantes.
Para los mtodos con aritmtica de intervalos, tambin hemos encontrado 3
tipos de situaciones, una en la que ambos mtodos funcionan bien (mejor el 2),
otra en la que funciona bien el mtodo 2 y en el 3 hay un porcentaje de entradas
desconocidas en el entrenamiento a partir del cual deja de funcionar, y la ltima
en la cual ambos mtodos poseen un porcentaje de entradas desconocidas en el
entrenamiento, a partir del cual funcionan claramente peor.
Tambin hemos comparado los cuatro primeros mtodos entre s. Para ello
hemos usado el caso de 5% de entradas desconocidas en el entrenamiento, ya que
es aconsejable usar un pequeo porcentaje de entradas desconocidas, si no se
quiere que haya un deterioro de la eficiencia de la red ante entradas conocidas.

- 75 -

2.5. CONCLUSIONES

Hemos observado que el mtodo 4 funciona claramente peor que los dems.
Nosotros pensamos que se podra mejorar su eficiencia modificando la
aproximacin realizada para el clculo de las integrales.
Los mtodos 2 y 3 son de nuevo los que mejor funcionan.
Finalmente, hemos comparados los 5 mtodos para los problemas con
entradas binarias (DISPLAY1 Y DISPLAY2) obteniendo los mismos resultados.
Para el mtodo 5 hemos obtenido buenos resultados, pero presenta la desventaja
de que slo es aplicable a problemas con entradas binarias por lo que su uso es
bastante restringido.
Como conclusin final, podemos decir que el mtodo 1 da mejor eficiencia
que el mtodo 4 y que los mtodos que utilizan aritmtica de intervalos son los
que mejor resuelven la mayora de los problemas, es especial el mtodo 2.
Los resultados de nuestra investigacin en este campo fueron publicados en
4 conferencias internacionales, cuyas referencias son [10], [11], [12] y [13].

- 76 -

2.6. BIBLIOGRAFA DEL CAPTULO

2.6. Bibliografa del captulo


[1] Maren, C. Harston, R. Pap. Handbook of Neural Computing Applications.
Academic Press Inc. 1990.
[2] Ishibuchi, H., Tanaka, H., An extension of the BP-Algorithm to Interval
Input Vectors -Learning from Numerical Data and Experts Knowledge-.
Proceedings of the 1991 International Joint Conference on Neural Networks,
Singapore, pp. 1588-1593, 1991.
[3] Hernndez, C., Esp, J., Nakayama, K.,A generalization of Backpropagation
to Interval Aritmetic. Proceedings of the World Congress on Neural
Networks (WCNN93), vol. 4, pp. 131-134, 1993.
[4] Hernndez C.A., Esp, J., Nakayama, K., Fernndez, M., Interval Aritmetic
Backpropagation. Proceedings of the 1993 International Joint Conference
on Neural Networks (IJCNN93), vol. 1, pp. 375-378, 1993.
[5] Ishibuchi, H., Miyazaki, A., Kwon, K., Tanaka, H., Learning from
incomplete training data with missing values and medical application.
Proceedings of 1993 IEEE International Conference on Neural Networks
(Nagoya), pp. 1871-1874, 1993.
[6] Ishibuchi, H., Miyazaki, A., Tanaka, H., Neural-network-based diagnosis
systems for incomplete data with missing inputs. Proceedindgs of 1994
IEEE International Conference on Neural Networks, pp. 3457-3460, 1994.
[7] Alefeld, G., Herzberger, J., Introduction to Interval Computations.
Academic Press. New York. 1983.
[8] Tresp, V., Neuneier, R., Ahmad, S., Efficient methods for dealing with
missing data in supervised learning. Advances in Neural Information
Processing Systems, pp. 689-696, 1995.
[9] Armitage, W.D., Jien-Chung Lo, Enhancing the robustness of a
Feedforward neural network in the presence of missing data. Proceedings of
IEEE International Conference on Neural Networks, pp. 836-839, 1994.
[10] Fernndez, M., Hernndez, C.A., An experimental evaluation of Different
Methods for Handling Missing Inputs. Proceeding of the International Joint
Conference on Neural Networks (IJCNN98), vol. 2, pp. 1450-1453, 1998.
[11] Fernndez, M., Hernndez, C.A., How to handle unknown Inputs.
Proceeding of the International Computer Symposium (ICS 98), vol. B, pp.
272-276, 1998.
[12] Fernndez, M., Hernndez, C.A., On the error function of interval
arithmetic Backpropagation. Proceeding of the European Symposium on
Artificial Neural Networks (ESANN 98), pp. 135-139, 1998.
[13] Fernndez, M., Hernndez, C.A., A comparison between two interval
arithmetic learning algorithms. Proceedings of the International Joint
Conference on Neural Networks (IJCNN99), pp. 1293-1298, 1999.
[14] Ahmad, S., Tresp, V., Classification with missing and uncertain inputs.
Proceedings of 1993 IEEE International Conference on Neural Networks,
pp. 1949-1954, San Francisco, California, March 1993.
[15] Anguita D., Ridella S., Rovetta S., Limiting the Effects of Weight Errors in
Feedforward Networks using Interval Arithmetic. Proceedings of the
International Conference on Neural Networks, vol. 1, pp. 414-417, 1996

- 77 -

2.6. BIBLIOGRAFA DEL CAPTULO

[16] Haung L., Zhang B., A Novel-Network-Related Approach for Regression


Analysis with Interval Model. Proceedings of the International Conference
on Neural Networks, vol. 1, pp. 611-616, 1996.
[17] Hernndez, C., Esp, J., Nakayama, K.,Effect of training data distribution
on Backpropagation Generalization. Proceedings of the 1993 IEEE
International Symposium on Circuits and Systems (ISCAS93), pp. 21482151, 1993.
[18] Bounds, D. G., Lloyd, P. J., A multilayer perceptron for the diagnosis of
low back pain. Proceedings of the IEEE International Conference on Neural
Networks, vol. 2, pp. 481-489, 1988.
[19] Mulsant, B. H., Servan-Sheriber, E., A connectionist approach to the
diagnosis of dementia, Proceedings of the Twelfth Annual Symposium on
Computer Application in Medical Care, pp. 245-250, 1988.
[20] Scalia, F., Marconi, L., Ridella, S., Arrigo, P., Mansi, C., Mela, G. S., An
example of back propagation: diagnosis of dyspepsia, Proceedings of the
First IEEE International Conference on Artificial Neural Networks, pp. 332335. 1989.
[21] Harvey, R. M., A neural network as a potential means for aiding nursing
diagnosis, Proceedings of the Fourteenth Annual Symposium on Computer
Applications in Medical Care, pp. 875-879, 1990.

- 78 -

Captulo 3

MTODOS DE SELECCIN DE LA INFORMACIN DE


ENTRADA A LA RED NEURONAL
3.1. Introduccin
3.2. Mtodos de seleccin de entradas basados en ARNMF
3.2.1. Primer grupo
3.2.2. Segundo grupo
3.2.3. Tercer grupo
3.2.4. Cuarto grupo
3.2.5. Quinto grupo
3.2.6. Sexto grupo
3.2.7. Sptimo grupo
3.3. Mtodos de seleccin de entradas basados en ACE
3.3.1. Teora de la Informacin
3.3.2. Distancias dentro y entre clases
3.3.3. Lgica difusa
3.4. Mtodos de seleccin de entradas basados en ARE
3.5. Algoritmo de aprendizaje mediante gradientes conjugados
3.6. Uso de Weight Decay en los mtodos ARNMF
3.7. Metodologa
3.8. Resultados Experimentales
3.9. Aplicacin a un problema real: patologa de la voz
3.10. Conclusiones
3.11. Bibliografa del Captulo
3.12. Apndice del Captulo

- 79 -

3.1. INTRODUCCIN

3.1. Introduccin
A lo largo de este trabajo se pretende conseguir una arquitectura ptima
para la red neuronal Multilayer Feedforward. La arquitectura habitual de la red
neuronal Multilayer Feedforward tiene una capa de salida, una capa de entrada y
una o ms capas ocultas.
En este captulo consideramos el caso de una nica capa oculta. En captulos
posteriores, se estudiar cmo escoger el nmero de capas y el nmero de
unidades en las mismas.
En adelante nos referiremos a un vector de entrada como ejemplo o patrn
de entrenamiento y llamaremos entrada o caracterstica de entrada a cada una de
las componentes de dicho vector.
Puesto que tratamos de resolver problemas de clasificacin, el nmero de
unidades de la capa de salida se suele elegir de forma que coincida con el nmero
de clases del problema de clasificacin. Se asigna una neurona a cada clase y con
ello se supone que se consigue una mayor inmunidad al ruido en las entradas.
En cuanto a la capa de entrada de la red, el problema principal es
seleccionar la informacin que se utilizar para resolver un determinado problema
o aplicacin.
La informacin que seleccionemos ser codificada numricamente e
introducida en las neuronas de entrada a la red. De esta forma, el nmero de
neuronas de entrada vendr determinado en funcin de la informacin que
seleccionemos.
Por ejemplo, en una aplicacin de diagnstico mdico hay que seleccionar
el conjunto de sntomas y pruebas til y mnimo que es necesario para resolver el
problema: diagnstico de una enfermedad. Cada sntoma, ser codificado
numricamente y ser una entrada en la red neuronal (una entrada en una neurona
de la capa de entrada).
Normalmente en aplicaciones reales complejas se tiene una gran cantidad de
informacin que puede ser medida y utilizada como entrada de una red neuronal.
Cuanto ms complicado sea el problema ms variables y medidas sern necesarias
para resolver el problema. Sin embargo, a priori, se desconoce la importancia
relativa de una informacin para resolver un problema.
El primer paso para realizar una aplicacin en redes neuronales ser
precisamente resolver este problema, es decir, decidir qu informacin se utilizar

- 80 -

3.1. INTRODUCCIN

como entradas de la red. Esta seleccin influir en gran medida en la eficiencia


final de la red. Por ejemplo, es posible que estemos seleccionando informacin
ruidosa, redundante o incluso irrelevante, y que ello suponga un deterioro de la
capacidad de generalizacin.
Generalmente, a la hora de desarrollar una determinada aplicacin se recurre
a la ayuda de uno o varios expertos humanos que deciden qu informacin es
necesaria para resolver el problema.
Este procedimiento tiene varios inconvenientes.
En primer lugar, est sujeto a la experiencia y conocimientos del experto. Es
posible que se introduzca informacin no til que provoque un deterioro en la
eficiencia de la red. Tambin puede ocurrir, que se omita informacin importante
porque el experto no la considere como tal.
Otro inconveniente es que en problemas muy complejos es posible que ni
siquiera el experto humano sea capaz de decidir cul es la informacin til. En la
bibliografa podemos encontrar ejemplos que ilustran esta situacin.
En [1], el problema que se pretenda resolver era la modelizacin de
parmetros crticos de la Mquina Principal de la Lanzadera Espacial (Space
Shuttle Main Engine). Los autores comentan que las relaciones funcionales entre
los parmetros que se midieron eran muy complejas y desconocidas. Adems, el
nmero de posibles parmetros de entrada era enorme. Por ello, utilizaron un
mtodo avanzado de seleccin de entradas.
En la referencia [2], el problema consiste en tomar decisiones sobre
seleccin de personal y sobre cuando realizar una determinada accin formadora
para una persona. Estas decisiones se realizaban basndose en las respuestas de un
cuestionario. La utilidad de las preguntas fue cuestionada por el propio autor.
Finalmente, se us una red neuronal para tratar de extraer las preguntas que eran
ms adecuadas.
Otros ejemplos pueden encontrarse en los campos de medicina, diagnstico
de fallos de una mquina compleja, etc.
A este problema se le conoce como seleccin de entradas o caractersticas
(en ingls feature selection). Se trata de un problema tpico muy importante en
el campo de reconocimiento de patrones y por ello debemos de darle la misma
importancia en el campo de redes neuronales.
Para resolver este problema, parece lgico, escoger un pequeo subconjunto
de caractersticas (entradas) a partir de un conjunto ms grande de informacin
- 81 -

3.1. INTRODUCCIN

potencialmente til o candidata. El subconjunto de informacin que escojamos


debe cumplir que sea el mnimo posible y suficiente para realizar bien la tarea de
clasificacin (sin deteriorar la eficiencia).
La forma inicial de abordar el problema sera, recoger la informacin de las
entradas que se consideran potencialmente interesantes y posteriormente evaluar
su utilidad con algn criterio, descartando las entradas intiles y seleccionando un
subconjunto de entradas a partir del conjunto original.
Por qu elegimos un subconjunto y no utilizamos directamente todo el
conjunto inicial de informacin?
Para una red neuronal haciendo una seleccin del nmero de unidades de
entrada (subconjunto til de informacin) podemos conseguir varias ventajas. En
primer lugar, al reducir el nmero de entradas reducimos el tamao final de la red
neuronal usada y de esta forma se simplifica el modelo utilizado para resolver el
problema. En segundo lugar, reducimos la cantidad de datos que necesitamos
obtener y procesar despus del entrenamiento, es decir, cuando la red ya est
funcionando. Esto reducir el coste para la utilizacin de la red en una aplicacin
prctica.
En tercer lugar, se reducir el tiempo de entrenamiento ya que la
arquitectura de la red es menor (menor nmero de pesos y unidades de entradas).
En definitiva, tendremos menor coste computacional.
Y por ltimo, podremos conseguir un incremento en la capacidad de
generalizacin de la red, es decir, un incremento en la eficiencia de la aplicacin
construida. Este resultado ha sido observado en este y otros trabajos de
investigacin anteriores. Podemos pensar que se debe a que al reducir el tamao
de la red proporcionando solo informacin til (no redundante) se hace ms fcil
la tarea de aprendizaje.
Como hemos dicho antes, para resolver el problema de seleccin de
entradas necesitamos algn tipo de criterio para poder medir la importancia de las
entradas y este criterio va a depender del clasificador que se utilice para resolver
el problema.
Por ejemplo, un subconjunto de variables de entrada puede ser ptimo para
un determinado clasificador (por ejemplo, una red Multilayer Feedforward
entrenada con Backpropagation) y muy ineficiente para otro (la misma red pero
entrenada con un algoritmo distinto).

- 82 -

3.1. INTRODUCCIN

En la bibliografa se han propuesto diversos mtodos para seleccionar la


informacin de entrada a la red.
Normalmente se parte de un conjunto amplio de informacin y el objetivo
es conseguir un subconjunto mnimo y til de dicha informacin.
Las aproximaciones que se estn utilizando para resolver este problema son
muy variadas.
En [2] y [3] los autores proponen realizar un entrenamiento de la red con un
conjunto de informacin amplio, para posteriormente realizar un anlisis de la
sensibilidad de la salida de la red con respecto a las entradas. As, las entradas que
poseen menor sensibilidad se pueden considerar como las menos importantes y se
pueden omitir en entrenamientos posteriores.
Otros autores, en [1] y [4], proponen el uso de algoritmos genticos para
seleccionar las entradas de la red neuronal. Partiendo de un conjunto amplio de
informacin, existen muchos subconjuntos que pueden usarse como entrada a la
red. Evaluar la eficiencia de una red neuronal para todos los subconjuntos es un
problema computacionalmente muy costoso. Puesto que los algoritmos genticos
son apropiados para realizar una bsqueda en problemas en los que hay un
espacio de parmetros grande, fueron empleados por los autores en esta situacin.
En las referencias [5] y [6], se propone un algoritmo de aprendizaje que
simultneamente selecciona las entradas de la red y el nmero de unidades de la
capa oculta. Para ello, definen una funcin que intenta establecer la importancia
de cada unidad dentro de la estructura de la red. Dicha definicin est basada en
conceptos de teora de la informacin como el anlisis de interdependencias.
Por ltimo, en la referencia [14], se propone un mtodo heurstico simple
para la estimacin de la importancia de las entradas en una red ya entrenada. Este
mtodo se basa en juzgar la contribucin a las unidades de salida de cada una de
las entradas. Las que menos contribuyen se consideran como menos importantes.
Este mtodo en cierto modo puede verse como un anlisis sencillo de sensibilidad.
Para elegir un mtodo concreto es importante considerar el coste
computacional que conlleva.
El entrenamiento de una red conlleva un alto coste computacional por lo que
parece imposible poder analizar todos los posibles subconjuntos de informacin
de entrada para seleccionar el ms idneo.
Por ello, en redes neuronales, se suele preferir algn mtodo de estimacin
directa.
- 83 -

3.1. INTRODUCCIN

Dentro de esta categora nosotros hemos realizado la siguiente clasificacin:

Mtodos basados en el anlisis de una red neuronal entrenada de


tipo Multilayer Feedforward (ARNMF).

Mtodos basados en el anlisis del conjunto de entrenamiento


(ACE).

Mtodos basados en el anlisis de otras redes neuronales distintas


de Multilayer Feedforward, redes especficas (ARE).

Todos estos mtodos permiten obtener una ordenacin de las entradas


candidatas a la red neuronal acorde con la importancia de las mismas, pero no nos
suministran cul debe ser el subconjunto mnimo y til de entradas que debemos
seleccionar. En otras palabras, podemos saber qu entrada se descartara en primer
lugar, la menos importante, y tambin en que orden debemos ir descartndolas,
pero desconocemos donde debemos de parar, cuantas entradas habr en el
subconjunto final.
Este ser uno de los objetivos de esta Tesis: a partir de las diferentes
ordenaciones de entradas que proporcionan los diferentes mtodos conseguir una
metodologa que nos permita saber cul ser el subconjunto ptimo para cada
mtodo, y comparar los resultados para concluir que mtodo funciona mejor.
En el siguiente apartado estudiaremos cada uno de los mtodos con ms
detalle.

- 84 -

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

3.2. Mtodos de seleccin de entrada basados en


ARNMF
Primero nos centraremos en los mtodos de seleccin de entradas basados
en el anlisis de una red neuronal entrenada de tipo Multilayer Feedforward, que a
partir de aqu denotaremos como ARNMF.
Para poder aplicar estos mtodos necesitamos en primer lugar entrenar al
menos una red neuronal con el conjunto completo de entradas candidatas. En
segundo lugar, se deber analizar la red entrenada (el anlisis depender de cada
uno de los mtodos) para determinar la ordenacin de las entradas segn su
importancia. Finalmente, a partir de las ordenaciones se tratar de encontrar el
conjunto ptimo de entradas que se puede obtener a partir de las ordenaciones
dadas por cada mtodo.
En todos los casos, partimos de una red neuronal de tipo Multilayer
Feedforward entrenada con el algoritmo Backpropagation. La funcin de
transferencia o activacin usada a la salida de la capa oculta y la de salida ser de
tipo sigmoide. La funcin de error usada ser la clsica que mide la diferencia
entre la salida deseada y la salida real obtenida.
o o1

o ok

...

O1

ONs

oik

oiNs

w h1 ,1 w h j ,1

Ns

La estructura y ecuaciones de
la red neuronal usada son las
clsicas de Multilayer Feedforward,
que ya vimos en el primer captulo.
Veamos aqu un recordatorio.

w hN h ,1

w h1 ,k

w hj ,k

w h 1 ,N s

H1

......

Ok

o i1

h o1

o oN s

w hN h ,k

h oj

....

hi j =

h oN h

......

Hj

h i1

w h N h ,N s

w h j ,N s

HNh

h ij

Nh

oi k = wh jk ho j + k
w i i ,j

w iN ,j

w i 1 ,N h
i1

I1
i1

(3.2)

j =1

w i1 ,1 w i i ,1 w iN ,1
w i1 ,j

(3.1)

i =1

h iN h

wiij ai + j

...

Ii
i

......

Nh

ho j =

oo k =

1
1 + exp(-hi j )

(3.3)

w i N ,N h

w i i ,N h
ii

iN

IN
i

Fig 1. Arquitectura Multilayer Feedforward.

- 85 -

1
1 + exp(-oi k )

(3.4)

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

Donde ii son las entradas a las neuronas en la capa de entrada a la red, hij y
hoj son respectivamente las entradas y salidas en las neuronas de la capa oculta y
por ltimo oik y ook sern las entradas y salidas respectivamente, en las neuronas
de la capa de salida.
Todos estos mtodos estn basados en el principio de que durante la fase de
entrenamiento la red neuronal debera seleccionar la importancia de las entradas y
este resultado se debera de reflejar en la estructura final de la red, por ejemplo los
pesos conectados a las unidades de entrada.
A continuacin, vamos a ver una descripcin detallada de los mtodos ms
representativos de esta categora que hemos encontrado en la bibliografa.
Todos ellos proponen como seleccionar las caractersticas tiles, es decir,
dan una ordenacin en funcin de su importancia. Nosotros utilizaremos la
ordenacin que proporcionan los mtodos para seleccionar el subconjunto ptimo
de caractersticas. Luego, estudiaremos qu mtodo proporciona la ordenacin
ms eficiente.
Estos mtodos estn basados como hemos dicho en el anlisis de una red
entrenada Multilayer Feedforward. Algunos de ellos, definen la relevancia de una
entrada i, Si. La manera de calcular dicha relevancia puede ser muy variada. Por
ejemplo, utilizando la ecuacin (3.5) podemos calcular la relevancia Si a partir de
la relevancia sij de cada peso wij conectado a la unidad de entrada i y a la unidad
de la capa oculta j. Una entrada es considerada ms importante si su relevancia es
mayor.
Si =

Nh

sij

(3.5)

j =1

Podemos agrupar los diferentes mtodos de ARNMF que vamos a estudiar


en funcin de la idea bsica de medida de la relevancia. Con ello obtenemos, siete
grupos que son los que estudiaremos a continuacin con ms detalle.

- 86 -

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

3.2.1. Primer grupo


En este primer grupo el criterio para definir la relevancia de los pesos est
basado en la estimacin directa de la magnitud de los pesos.
Hemos utilizado dos mtodos basados en esta idea que estn descritos en las
referencias [9] y [10].
MTODO BL2
El primero, propuesto en [9], lo denominaremos a partir de aqu BL2.
Propone calcular la relevancia para una caracterstica de entrada i como la suma
de las relevancias de los pesos entre la capa de entrada y la capa oculta. Dichas
relevancias pueden calcularse por la ecuacin (3.6).
s ij = ( wij ) 2

(3.6)

Donde wij es el peso entre la entrada i y la neurona de la capa oculta j.


La relevancia total para de una caracterstica de entrada i se calcular
mediante la ecuacin (3.5). Una entrada ser ms importante cuanto mayor sea su
relevancia, con lo cual, a partir de los valores de las relevancias Si podemos
realizar una ordenacin de las caractersticas segn su importancia.
MTODO TEKA
En la referencia [10], se definen varios mtodos de seleccin de
caractersticas. Dentro del primer grupo que estamos estudiando, podemos
encontrar un mtodo basado en la estimacin directa de las magnitudes de los
pesos conectados entre las neuronas de la capa de entrada y la capa oculta de la
red neuronal. Denominaremos a este mtodo como TEKA.
Se miden los valores absolutos de las magnitudes de los pesos wij entre la
capa oculta y la de entrada y se obtiene la relevancia de cada peso segn la
ecuacin (3.7).
s ij = wij

(3.7)

De nuevo la relevancia de una entrada i se calcula a partir de la ecuacin


(3.5). Una entrada ser ms importante si su relevancia Si es mayor.

- 87 -

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

3.2.2. Segundo grupo


En este grupo el criterio de relevancia est basado en la estimacin del
incremento en el error cuadrtico medio E (E.C.M), cuando se podan los pesos, es
decir, cuando se sustituye su valor por el valor cero.
MTODO CIB
El primer mtodo de este grupo, est descrito en la referencia [11] y lo
denominaremos CIB. Esta basado en la idea de definir la relevancia de un peso en
funcin de la variacin en la funcin de error E de la red cuando se suprime dicho
peso, es decir se hace cero.
Cuando perturbamos el valor de un peso se producir un cambio en la
funcin de error de la red neuronal. La importancia relativa de un peso se puede
definir como la perturbacin que produce en la funcin de error de la red cuando
se elimina dicho peso.
s k = s ij = E ( wk = 0) - E ( wk = wkf )

(3.8)

La ecuacin anterior se puede expresar como la aproximacin por serie de


Taylor de la funcin de error. Su expresin vendr dada por la ecuacin (3.9).
s k = E = g i wi +
i

hii wi2 + 2 hij wi w j + O( W


2

(3.9)

i j

Donde gi son las primeras derivadas del error E respecto de los pesos y hij
son las segundas derivadas del error que constituirn la llamada matriz hesiana H.
En este mtodo se asume que el podado de los pesos es realizado en un
mnimo de la funcin de error, por lo cual, se descartan las derivadas de primer
orden.
Adems, se asume que las perturbaciones son pequeas y los valores de las
segundas derivadas grandes, por lo cual, se desprecian trminos de tercer orden.
Tambin se supone una matriz hesiana diagonal.
Con todo esto, la expresin final que obtenemos para la relevancia de un
peso vendr dada en la ecuacin (3.10).
s k = s ij =

1
2

hkk wk2

- 88 -

(3.10)

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

Donde hemos denotado por wk al peso wij y hkk es el correspondiente


elemento de la matriz hesiana H.
Para realizar dicho clculo se supone que la matriz hesiana es diagonal y su
expresin puede calcularse segn se describe en la referencia [8]. En el apndice
del captulo hemos resumido dicho clculo y damos las ecuaciones finales para el
clculo de la matriz hesiana H.
MTODO TEKE
En la referencia [10], se describe un mtodo que denominaremos TEKE
basado en la misma idea que el anterior. La diferencia fundamental es, que ahora
no se asume que la matriz hesiana sea diagonal y se calcula su inversa.
La relevancia de un peso wij se define segn la ecuacin (3.11).
s k = s ij =

1
2

w k2

[ H -1 ] kk

(3.11)

Donde [H -1] kk son los elementos de la diagonal principal de la matriz


inversa de la hesiana.
El coste computacional de este mtodo ser mayor ya que ahora hay que
calcular la matriz hesiana completa y su inversa.
De nuevo podemos ver su clculo en el apndice del captulo.
MTODO TEKC
Por ltimo en [10], se describe un mtodo que denominaremos TEKC y que
se basa tambin en el desarrollo de Taylor de la funcin de error. Sin embargo,
ahora la aproximacin consiste en quedarse con el trmino de primer orden
(gradiente descendente) y despreciar trminos superiores.
La relevancia de un peso wij se calcula por la ecuacin (3.12).
sij =
t =0

E
wij

(t ) wij (t )

wij (t )
wiji - wijf

(3.12)

Donde la suma sobre t se realiza sobre todas las iteraciones del


entrenamiento, desde la inicial, t=0, hasta la de convergencia de la red. Los
valores wiij y wfij son los iniciales y finales (en la iteracin de convergencia) de los
pesos wij. Por ltimo, Dwij(t) es el cambio en los pesos calculado por el algoritmo
de aprendizaje en la iteracin t.

- 89 -

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

MTODO MAO
Por ltimo describiremos un mtodo al que denominaremos MAO y que
est descrito en [18].
La funcin de error cuadrtico usada en el entrenamiento se define como la
suma para todos los patrones de los errores cuadrticos de cada patrn.
N

E = Ep =
p =1

N Ns

( y kL - t k )
2

(3.13)

p =1 k =1

En esta ecuacin, N es el nmero de patrones de entrenamiento, Ns el


nmero de neuronas de salida, y L la capa de salida.
Se calcula la relevancia de una entrada como el incremento en el error
cuadrtico medio (ECM), E, cuando se elimina dicha entrada.
N

(3.14)

Si = E p (I i )
p =1

Para calcular el incremento en el ECM se realiza el desarrollo de Taylor,


segn la ecuacin (3.15).
E p (I i ) =

E p

Ii +

I i

2
1 Ep

( I i ) 2
2
2 I i

(3.15)

En ella DIi toma el valor (0-Ii) y las derivadas se pueden calcular


recursivamente haciendo uso de las relaciones siguientes:
E p
y il
2Ep
( y il )

2Ep

j =1

( y il +1 )

E p

(3.16)

y l +1 f wij
j =1

N l +1

N l +1

( f wij )2 +

N l +1

E p

y l +1 f wij2
j =1

(3.17)

En donde f representa la funcin de transferencia sigmoide habitual, Nl+1 es


el nmero de unidades de la capa l+1 y yjl es la salida j de la capa l.
Para una red de tres capas las derivadas con respecto a las salidas sern:
E p
o k

= (o k - t k )

- 90 -

(3.18)

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

2Ep
o k 2

(3.19)

=1

Las derivadas respecto a las unidades de la capa oculta:


E p

h j

2Ep
h j

Ns

E p

k =1

o k (1 - o k ) wh jk =

k =1

(3.20)

k =1

2Ep

Ns

Ns

(o k - t k ) o k (1 - o k ) wh jk

(o k (1 - o k ) wh jk )2 +

Ns

k =1

j =1

E p

o
j =1

o k (1 - o k ) (1 - 2o k ) wh 2jk =

(3.21)

(o k (1 - o k ) wh jk )2 + (o k - t k ) o k (1 - o k ) (1 - 2o k ) wh 2jk

Y las derivadas con respecto a las unidades de entrada sern:


E p
I i

2Ep
I i

Nh

E p

j =1

Nh

2Ep

h
j =1

(3.22)

h j (1 - h j ) wi ij

(h j (1 - h j ) wi ij )2 +

Nh

E p

j =1

h j (1 - h j ) (1 - 2h j ) wi ij2

(3.23)

Podemos sustituir los valores de las ecuaciones de la (3.18) a la (3.21) en las


ecuaciones (3.22) y (3.23).
Sustituyendo el resultado de las ecuaciones (3.22) y (3.23) en la ecuacin
(3.15) y despus el resultado, en la ecuacin (3.14) se puede calcular las
relevancias para las diferentes caractersticas de entrada.

3.2.3. Tercer grupo


Otros mtodos definen la relevancia usando la varianza de los pesos wij
conectados a una entrada i. Estn basados en la idea de que una pequea varianza
hace que la entrada se comporte como un umbral y su importancia ser menor.
MTODO DEV
El primer mtodo descrito en [12] y que llamamos DEV, est basado en la
idea de encontrar las caractersticas ms relevantes capaces de discriminar
objetos. Cada patrn o ejemplo de entrada en la red neuronal es representado por
un punto del hiperespacio de caractersticas. Los patrones que pertenecen a las

- 91 -

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

diferentes clases sern agrupados en diferentes regiones del espacio y separados


por hiperplanos.
Desde el punto de vista geomtrico, la seleccin de las caractersticas ms
relevantes que discriminen entre las clases de patrones de entrada, se puede hacer
investigando los hiperplanos que separan las regiones del hiperespacio. Si una
caracterstica no es relevante para distinguir los patrones considerados, todos los
hiperplanos que dividen las regiones del hiperespacio deben ser paralelos al vector
unidad correspondiente a esa caracterstica.
La identificacin de los hiperplanos puede realizarse suponiendo una red
neuronal de dos capas entrenada con Backpropagation.
Sea yk la salida de la neurona k en la capa de salida de la red y netk la
entrada en la neurona k de la dicha capa. Tendremos:
y k = f ( net k );

(3.24)

net k = wik xi
i =0

Al final del entrenamiento, una entrada xi es clasificada en la clase k si su


valor de salida es mayor que el valor de salida en las dems clases:
Si

yk > yq

"q k

(3.25)

Entonces

wik xi - wiq xi > 0

"q k

i =0

La contribucin de una caracterstica xs a la salida de la clase j ser:


wsj - wsq

"q j

(3.26)

Diremos que una caracterstica no es relevante, si dicho valor es el mismo


para todas las clases. Esto equivale a que la varianza de los pesos conectados con
esa entrada sea cero para todas las salidas.
Basndose en esta idea, para una red neuronal de tres capas se puede
calcular la relevancia de una caracterstica i de entrada, a partir de la varianza
proporcionada por los pesos conectados a ella como se indica en la ecuacin
(3.27).

Nh

S i = vari = (wij - E ( wij ) )


j

Nh

wij
Nh

j
=
wij -

j
Nh

Donde Nh es el nmero de neuronas de la capa oculta.


- 92 -

(3.27)

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

MTODO DER3
El segundo mtodo, est descrito en [13] y lo llamaremos DER3.
Esta basado en la misma idea que el mtodo anterior, es decir, definir la
relevancia en funcin del valor de la varianza de los pesos entre la capa de entrada
y la capa oculta de la red.
Sin embargo, ahora, para poder comparar las varianzas de los diferentes
pesos entre si, se normaliza respecto del valor esperado de dichos pesos.
La relevancia de una entrada i se medir por la ecuacin (3.28).
Si =

vari
E ( wij )

Nh vari
Nh

(3.28)

wij

Donde wij es el peso desde la unidad i de entrada a la j de la capa oculta, Nh


es el nmero de unidades en la capa oculta, E(wij) es la expectacin de dicho peso
y vari es la varianza que se calcular igual que en la ecuacin (3.27).

3.2.4. Cuarto grupo


Otros mtodos evalan la contribucin de una entrada a la salida teniendo
en cuenta el valor de los pesos en toda la estructura de la red neuronal.
MTODO TEKB
El primer mtodo de este grupo, est descrito en la referencia [10] y lo
llamaremos TEKB.
Propone evaluar la contribucin de una entrada en las salidas de la red
teniendo en cuenta toda la estructura de la misma, es decir, todos los pesos.
Este mtodo est basado en que las neuronas pueden trabajar en diferentes
modos dependiendo del valor de la ecuacin (3.29).
Los modos de activacin dependen de las entradas en la capa inferior. La
entrada Aj a una neurona j se puede expresar segn la ecuacin siguiente:
Aj =

wij ai
i

- 93 -

(3.29)

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

Donde ai es la entrada en una neurona de la capa inferior y wij es el peso que


une la neurona j de la capa superior con la neurona i de la capa anterior (inferior).
Si la suma es grande (positiva o negativa) la neurona trabaja cerca de
saturacin. Si la suma es pequea la neurona trabaja en el modo lineal. Esto puede
observarse en la figura 2.
1

Saturacin
(entradas positivas)

0.8

f(A)

0.6

modo lineal

0.4
0.2
0
-10

Saturacin
(entradas negativas)

-5

10

Fig. 2. Funcin de transferencia y modos de activacin de la funcin sigmoide.


Una neurona de entrada conectada a neuronas que trabajen en modo lineal
en la capa oculta, tendr siempre menor relevancia que aquellas neuronas de
entrada que estn conectadas a las neuronas ocultas que trabajen en modo de
saturacin.
Se puede calcularla relevancia de las entradas a una capa, en funcin de las
relevancias de la capa superior, como vemos en la ecuacin siguiente.
S is

wij
S sj +1
=
max w "a
j =1
aj

(3.30)

Donde Sis es la relevancia de la neurona i en la capa s, Sjs+1 es la de la


neurona j de la capa s+1 y wij es el peso entre la neurona i en la capa s y la
neurona j en la capa s+1.
En el denominador, se calcula el peso que tiene un valor ms alto de todos
los pesos que acaban en la neurona j de la capa s+1 (as se normaliza el valor de la
relevancia a 1).
Esta ecuacin es recursiva, primero se fijan las relevancias de las neuronas
de la capa de salida iguales a 1, y recursivamente se estima el valor de las
relevancias de las unidades de entrada de las capas inferiores hasta llegar a la capa
de entrada a la red.
- 94 -

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

MTODO TEK
Y por ltimo en [14], tenemos un mtodo que denominaremos TEK.
Este mtodo es parecido al anterior pero mide la relacin entre las neuronas
i y j segn la ecuacin:
sij =

wij ais

(3.31)

max wkj a ks
k

El mximo se toma sobre todos los pesos que acaban en la neurona j.


Utilizando la norma eucldea y sumando para todos los patrones de entrada,
se define la relevancia de la unidad i dada por los pesos que salen de ella segn la
ecuacin (3.32).
S is =

wij ais

(sijs ) 2 S sj+1 = max


j

wkj aks

S sj+1 =

M
( w ) 2 E [a s ] 2
max {(w ij ) 2 E [ais ] 2 , "k } S sj+1
j =1

kj

(3.32)

La expectacin de ais se calcula mediante la ecuacin (3.33).


N

E ( a ks ) =

a ks

(3.33)

p =1

Donde N es el nmero de patrones.


Esta frmula recurrente, calcula la sensibilidad de una unidad de la capa s a
travs de la sensibilidad de la capa s+1. Las sensibilidades de las neuronas de la
capa de salida se toman iguales a 1. Todas las sensibilidades en una capa son
normalizadas a 1.
Si asumimos que E[ais] es prcticamente el mismo para las neuronas de la
misma capa s, se obtendr la ecuacin (3.30) del mtodo TEKB.

3.2.5. Quinto grupo


Hay varios mtodos que usan la sensibilidad de las salidas con respecto a
una entrada para definir su relevancia. Estn basados en la idea de que una alta
sensibilidad significa una gran variacin de los valores de salida debido a un
cambio en una entrada, por lo que, se puede suponer que la entrada es ms
importante.

- 95 -

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

MTODO BL1
En la referencia [9] se describe un mtodo que denominaremos a partir de
aqu como BL1.
Para definir la importancia de las entradas se mide la sensibilidad de la
salida respecto de las entradas.
Como primer paso, se define la derivada de la salida respecto de una entrada
especfica que depender de las entradas en la red y de los pesos en ella.
Si consideramos la red Multilayer Feedforward y las ecuaciones de la
misma descritas al principio de esta seccin 3.2, obtendremos:
o k
I i

( x, w) =

o k

oi k

oi k ho j

ho j hi j

hi j I i

(3.34)

Nh

= o k (1 - o k ) wh jk ho j (1 - ho j ) wiij
j =1

Donde hoj es la salida de la neurona j de la capa oculta, ok es la salida de la


neurona de salida k de la red, whjk es el peso entre la unidad j de la capa oculta y la
unidad k de la capa de salida, wiij es el peso entre la unidad i de la capa de entrada
y la unidad j de la capa oculta y Ii es la entrada en la neurona i de la capa de
entrada.
La relevancia de una entrada i se definir a partir de las sensibilidades segn
la ecuacin (3.35), que representa la sensibilidad media dentro del espacio de
variabilidad de las entradas.
Si =

1
N

Ns

xS k =1 xD

o k
I i

( x , w)

(3.35)

Donde x es un vector de caractersticas de entrada, S es el conjunto de


entrenamiento, D es un conjunto de puntos uniformemente distribuidos en el
rango de variabilidad de las entradas, N es la suma de los cardinales de S y D y Ns
es el nmero de unidades en la capa de salida de la red.
MTODO CLO
Otro mtodo similar a BL1 que denominaremos CLO fue propuesto en [15].
Este mtodo mide la relevancia de una unidad de entrada en funcin de la
sensibilidad de las salidas respecto a las entradas.

- 96 -

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

Igual que en el mtodo anterior, se define la sensibilidad de una neurona j de


la capa de salida respecto una unidad i de la capa de entrada para un cierto patrn
x, mediante la ecuacin (3.36) y su expresin final vendr dada por la ecuacin
(3.34).
sijx =

o j
I i

(3.36)

( x, w)

Cada pareja de valores i, j produce una matriz de sensibilidades diferente.


La sensibilidad media de la unidad j en la capa de salida, para cambios en la
unidad i de la capa de entrada para todo el conjunto de entrenamiento, se obtendr
sumando para todos los patrones mediante la expresin siguiente.

( )

2
s ijx

Aij =

xS

o j

I ( x, w)

xS
i
N

(3.37)

A partir de la ecuacin (3.37), se puede definir la relevancia de la unidad i


de la capa de entrada, como el mximo de las sensibilidades entre el elemento i y
cualquier elemento j de la capa de salida.
S i = max ( Aij

"j

(3.38)

MTODO PRI
Otro mtodo que denominamos PRI, se describe en la referencia [16].
Est basado en la medida del error en la clasificacin correcta de un vector
de entrada. Se mide la probabilidad a posteriori de una clase dado un vector de
entrada x. La probabilidad de error en la clasificacin para un nodo de salida dado
un vector de entrada x puede ser calculada como:
Perror ( j, x ) = 1 - P (C j , x ) =

P (C k , x ) = o k

k j

k j

(3.39)

La relevancia de una entrada i se obtiene a partir de la medida de las


sensibilidades, es decir de la derivada de las salidas respecto de las entradas.
Para ello, se calcula la derivada de la ecuacin (3.39) respecto de una cierta
entrada o caracterstica i. Con ello podemos definir la relevancia de una entrada i
por la ecuacin (3.40).
Si =

Ns

I k ( x, w)
xS j =1 xD

k j

- 97 -

(3.40)

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

Donde j vara entre 1 y el nmero de neuronas Ns de salida de la red, D es


un conjunto de puntos uniformemente distribuidos en el rango de variabilidad de
las entradas, S es el conjunto de entrada usadas en el entrenamiento, Ik y ok son
respectivamente las entradas y las salidas de la red.
Igual que antes, la expresin de la derivada de la salida respecto de la
entrada a la red vendr dada por la ecuacin (3.34).
MTODO SAN
El siguiente mtodo descrito en [17] y que denominamos SAN, tambin est
basado en medir la dependencia de una salida respecto de una entrada.
Para medir dicha dependencia, habra que realizar la integracin sobre todas
las entradas. Sin embargo, aqu se propone un mtodo ms simple, se mide el
grado de dependencia de una unidad de salida k en la unidad de entrada i por la
ecuacin (3.41).
o k
D(k , i ) = max
( x, w)
I i

"xS

(3.41)

En la referencia [17], no se especifica como decidir la importancia de una


entrada respecto de otra, cul es ms importante.
En la ecuacin anterior D(k,i) es una matriz de sensibilidades, el ndice k
vara entre 1 y el nmero de salidas y el ndice i entre 1 y el nmero de entradas.
Nosotros hemos considerado que la relevancia de la entrada j es mayor que
la de la entrada i si se cumple que D(k,j)>D(k,i) para un mayor nmero de valores
de k.
MTODO DER2
En la referencia [13] tenemos un nuevo mtodo que llamamos DER2.
Este mtodo utiliza sensibilidades logartmicas para evitar que aparezca el
trmino de saturacin ok(1-ok) de la sensibilidad normal, ecuacin (3.34).
Se define la sensibilidad Bik de la salida k con respecto a la entrada mediante
la ecuacin siguiente.
Bik =

ln ( t k - o k )
ln I i

Aqu tk es el objetivo de la salida ok.

- 98 -

(3.42)

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

El mtodo requiere que la red haya convergido y que los patrones estn bien
clasificados. Despus de que la red haya convergido se calculan las relevancias
para todas las clases y se define la relevancia Si, como el mximo de las
sensibilidades segn la ecuacin (3.43).
S i = max ( Bik ) "k

(3.43)

3.2.6. Sexto grupo


Algunos mtodos se basan en la estimacin del decremento de la eficiencia
de la red cuando sustituimos la entrada por un valor fijo apropiado. La relevancia
de una entrada se considera mayor si el decremento en la eficiencia aumenta.
MTODO UTA
En la referencia [19], se describe el mtodo que denominaremos UTA.
Est basado en el clculo del incremento en el error cuadrtico medio
cuando se sustituye una caracterstica de entrada i, por el valor medio de los
valores que esa caracterstica toma en todos los patrones de entrada.
Para calcular la relevancia de una caracterstica, primero se sustituye en
todos los patrones de entrada los valores xi de una caracterstica, por el valor
medio obtenido segn la ecuacin (3.44).
N

x i =

xip

(3.44)

p =1

Una vez realizada la sustitucin se calculan los nuevos valores de salida en


la capa oculta y a partir de ellos las salidas en las unidades de la capa de salida de
la red. A partir de las salidas y los objetivos de la red se puede calcular el error
cuadrtico medio segn la ecuacin (3.13).
El incremento en el error cuadrtico para un patrn ser:
E p (i ) = E p (i = i) - E p (i )

(3.45)

La relevancia de una caracterstica se puede calcular por la ecuacin:


Si =

1
N

E p (i)
p =1

- 99 -

(3.46)

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

Para las relevancias del resto de caractersticas se repetir el proceso.


Cuanto menor sea la variacin en el error (menor relevancia), menos
importante ser la caracterstica de entrada.
MTODO LEE
El ltimo mtodo, que denominamos LEE, est descrito en [20].
El mtodo calcula el decremento en el porcentaje de aciertos en el test
cuando se sustituye el valor de una entrada por su valor medio.
Es decir, igual que en el mtodo UTA, se sustituye la caracterstica por el
valor medio de la ecuacin (3.44), se calculan las salidas de la capa de salida y
despus las salidas de la red. Conocidas las nuevas salidas de la red se pueden
calcular los nuevos valores de los porcentajes de acierto que provocan dichas
sustituciones.

3.2.7. Sptimo grupo


Por ltimo, hemos encontrado dos mtodos que no podemos incluir en
ninguno de los grupos o categoras anteriores.
MTODO BOW
En la referencia [21] se describe el mtodo que denominaremos BOW.
Generalmente, en el proceso de entrenamiento para redes Multilayer
Feedforward hemos usado el algoritmo Backpropagation.
El funcionamiento de este algoritmo consiste en que la diferencia (o error)
entre la salida actual de la red y la deseada, es propagada hacia atrs a lo largo de
la red neuronal, de forma que durante el proceso de entrenamiento se van
modificando los pesos. La variacin en los pesos se puede expresar por las
frmulas siguientes.
w(t + 1) = w(t + 1) - w(t )

(3.47)

Para los pesos entre la capa oculta y de salida.


E P
wh j ,k (t + 1) = wh
j ,k

+ wh j ,k (t ) = - k ho k + wh j ,k (t )

- 100 -

(3.48)

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

Para los pesos entre la capa de entrada y la oculta.


E P
wi i , j (t + 1) = wi
i, j

+ wii , j (t ) = - h j x j + wii , j (t )

(3.49)

Donde h es el paso de adaptacin, a es el momento (entre 0 y 1), hok es la


salida de la neurona k de la capa oculta y xj es entrada de la neurona de entrada j.
En el mtodo BOW se va acumulando durante el proceso de entrenamiento
un error eit (en ingls accumulated error index), que ser el que despus nos
defina la relevancia de las entradas.
Es decir, al entrenar las redes Multilayer Feedforward se van acumulando
los valores de dhj en cada iteracin de entrenamiento. Dicho valor depende del
valor de dk y en el captulo primero dimos su expresin.
La relevancia de una entrada se define como la suma que aparece en la
ecuacin (3.50) para todas las iteraciones del entrenamiento, hasta la iteracin T
de convergencia.
Si =

t =0

eit =

Nh

t =0

j =1

h j wij

(3.50)

En la ecuacin, wij es el peso entre la entrada i y la neurona oculta j y dhj es,


como hemos visto antes, el error de la neurona oculta j propagado hacia atrs
(backpropagated) por el algoritmo de aprendizaje en la iteracin t.
Cuanto mayor sea el error, ms importante ser la entrada y su relevancia
ser mayor.
MTODO YOU
Por ltimo, en [22], se describe un mtodo que denominaremos YOU.
El mtodo est basado en calcular el efecto de una entrada en la salida de la
red neuronal. Se determina el grado de participacin que cada neurona de entrada
tiene en una neurona de salida.
El procedimiento a seguir es el siguiente.

Para cada neurona de la capa oculta se determina su participacin en


la activacin de una neurona de salida.

Se computa la participacin de cada neurona de entrada en la


activacin de una neurona oculta.

- 101 -

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

Se deduce la participacin de una neurona de entrada en la activacin


de una salida a travs de una neurona de la capa oculta.

Se suman las participaciones para todos las unidades ocultas, para


determinar la participacin total de una neurona de entrada en la
activacin de una neurona de salida.

Se pesa esta participacin en funcin de la importancia de cada


neurona de salida.

Definimos en primer lugar algunas variables.


f(x)

Funcin de activacin sigmoide usada en la red neuronal

xi

Entradas y salidas de la capa de entrada a la red

wiij

Los pesos entre la unidad i y la unidad j (capa entrada-oculta)

whjk

Los pesos entre la unidad j y la unidad k (capa oculta-salida)

Ahidj

Entrada en la neurona j de la capa oculta

xhidj

Salida de la neurona j de la capa oculta

Aoutk

Entrada en la neurona k de la capa de salida

xoutk

Salida de la neurona k de la capa de salida

inc_hid Variacin en el estado de la neurona debido a Ahid


inc_out Variacin en el estado de la neurona debido a Aout
Se cumplirn las siguientes expresiones:
Ahid j = xi wiij ;

xhid j = f ( Ahid j ) =

Aoutk = xhid j wh jk ; xoutk = f ( Aoutk ) =


j

1
1 + exp( - Ahid j )
1
1 + exp( - Aoutk )

(3.51)

(3.52)

Se pueden descomponer la entrada a las neuronas en dos trminos, uno que


indique la cooperacin sobre la entrada i y otro que indique la no-cooperacin.
Para la entrada en una neurona oculta j tendremos:
Ahid j = Ahid Cj + Ahid Nj

(3.53)

Donde AhidjC define la cooperacin en el total de la entrada i:


Ahid Cj = xi wiij ;

"i que cumple ( xi wiij Ahid j ) 0

- 102 -

(3.54)

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

Y AhidjN define la no-cooperacin en el total de la entrada i:


Ahid Nj = xi wiij ;

"i que cumple ( x i wiij Ahid j ) < 0

(3.55)

Para la entrada en la neurona k de salida tendremos:


Aout k = Aout kC + Aout kN

(3.56)

Donde AoutkC define como:


AoutkC = xhid j wh jk ; "j que cumple ( xhid k wh jk Aoutk ) 0
j

(3.57)

Y AhidjN se define como:


AoutkC = xhid j wh jk ; "j que cumple ( xhid k wh jk Aoutk ) < 0
j

(3.58)

Una operacin similar se puede realizar sobre las salidas de las neuronas.
Definimos el siguiente valor:
b

Y ( a, b) = f ( x ) dx
a

(3.59)

Definimos para las salidas de la capa oculta:


inc _ hid Cj = (0, Ahid Cj );
inc _ hid
hid =

N
j

= (0, Ahid j ) -

inc _ hid Nj
inc _ hid Cj

(3.60)
(0, Ahid Cj );

xhid Cj = (1 - hid ) xhid j ;


xhid Nj = hid xhid j ;
xhid j = xhid Cj + xhid Nj

Para las salidas de las neuronas de la capa de salida de la red:


inc _ out kC = (0, Aout kC );
inc _ out kN
out =

(0, Aout k ) - (0, Aout kC );

inc _ out kN
inc _ out kC

xout kC = (1 - out ) xout k ;


xout kN = out xout k ;
xout k = xout kC + xout kN

- 103 -

(3.61)

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

Desde la entrada a la capa oculta


Podemos definir el grado de participacin que una neurona de entrada i
tiene sobre una unidad j de la capa oculta dado un cierto patrn p, como Ii(j|p)
segn la ecuacin:
xi wiij
xhid Cj

C
Ahid
j

I i ( j | p) =
xi wiij
N
Ahid N xhid j
j

si

( xi wiij Ahid j ) 0

(3.62)

si ( xi wiij Ahid j ) < 0

Desde la entrada a la salida a travs de la capa oculta.


Se define el grado de participacin de una neurona de entrada i sobre una
neurona de salida, a travs de una neurona j oculta para un cierto patrn de
entrenamiento p, Iij(k|p) segn la ecuacin:
I i ( j | p ) wh jk
xout kC

C
Aout
k

I ij ( k | p ) =
I i ( j | p ) wh jk
xout kN

N
Aout

si

( I i ( j | p ) wh jk Aout k ) 0

(3.63)

si ( I i ( j | p ) wh jk Aout k ) < 0

Desde la entrada a la capa de salida.


El grado total de participacin de una neurona i de entrada sobre la salida
total de la neurona k para un patrn dado p, vendr dada por la contribucin de
todas las unidades ocultas en esa unidad de salida.
I iTotal (k | p ) =

I ij (k | p)
j

(3.64)

En la tarea de clasificacin con una red de Nsalida salidas de la red, la


decisin del sistema se basa en las unidades ms activas al presentar el patrn p de
la clase s. Por ello, se utiliza un factor de peso (Nsalida 1), ya que ese nmero de
neuronas de salida, toman otra decisin.
Para un cierto patrn p, se puede expresar la participacin de una neurona i
de entrada sobre las salidas de la red por la ecuacin:
I i ( p ) = ( N salida - 1) I iTotal ( s | p ) -

Nsalida

I iTotal (k | p)

k =1;k s

- 104 -

(3.65)

3.2. MTODOS DE SELECCIN DE ENTRADA BASADOS EN ARNMF

Fase de seleccin.
Usando una red neuronal entrenada para cada patrn, o ejemplo de
entrenamiento, se puede calcular el grado de participacin que una neurona i tiene
sobre la decisin que toma la red, ecuacin (3.65).
Para cada entrada i se puede calcular para cada patrn (N patrones de
entrenamiento) el valor Ii(p), a partir de todo el conjunto de entrenamiento y se
obtiene la importancia media para cada neurona de entrada i a partir de:
I iMedia =

1
N

I i ( p)

(3.66)

p =1

Finalmente, cuanto mayor sea esta medida ms importante ser la entrada.

- 105 -

3.3. MTODOS DE SELECCIN DE ENTRADAS BASADOS EN ACE

3.3. Mtodos de seleccin de entradas basados en


ACE
Los mtodos basados en el anlisis del conjunto de entrenamiento los hemos
agrupado en tres categoras, en funcin del tipo de tcnicas que utilizan:
conceptos de la Teora de la Informacin, medida de distancias dentro y entre las
clases y por ltimo lgica difusa (fuzzy).
A priori, estos mtodos presentan la ventaja, frente a los mtodos ARNMF,
de que no hay que entrenar ninguna red neuronal para aplicarlos. Por ello, su
carga computacional suele ser mucho menor.

3.3.1. Teora de la Informacin


MTODO BA
En [23] se describe el mtodo basado en conceptos de Teora de la
Informacin y que denominaremos BA.
El algoritmo utilizado en este mtodo es el siguiente:
1) Definir F como un conjunto que incluya a todas las entradas
candidatas a la red neuronal y sea S un conjunto vaco.
2) Calcular la informacin mutua I(C,f) entre cada entrada y el
conjunto de clases C=(c1,...,cM).
3) Encontrar la entrada g que maximice I(C,f). Incluir g en el
conjunto S y eliminarla de F.
S=S{f}, F=F-{f}.
4) Repetir los siguientes pasos hasta que el cardinal de S sea k o el
conjunto F este vaco.
i) Calcular la informacin mutua I(f,s) entre las
entradas de F y de S, (fS y sS).
ii) Escoger la entrada gF que maximice la ecuacin:
I (C , f ) -

I ( f , s)

(3.67)

sS

En donde b es un parmetro dentro del intervalo [0.5,1].


iii) Incluir g en S y eliminarla de F.
I(C,f) mide la Informacin Mutua de una entrada f con las clases. Cuanto
mayor sea ms importante se considera la entrada.

- 106 -

3.3. MTODOS DE SELECCIN DE ENTRADAS BASADOS EN ACE

I(f,s) mide la redundancia, dependencia entre dos entradas diferentes.


Cuanto ms grande sea, ms relacionadas estarn entre s y por tanto una de ellas
es redundante.
El parmetro b regula la importancia relativa entre la Informacin Mutua de
una entrada con las clases y la Informacin Mutua de dicha entrada candidata y
las dems entradas (las ya seleccionadas como importantes).
El algoritmo intenta a partir del conjunto original F de entradas encontrar un
subconjunto ordenado con las k entradas ms relevantes. Sin embargo es
imposible saber a priori el valor apropiado de k.
Lo que se obtiene es una ordenacin de la importancia de las entradas, la
ms importante ser la primera que el algoritmo seleccione para el subconjunto S
final, y la menos importante ser la ltima seleccionada.
En la prctica, nosotros aplicaremos el algoritmo hasta que hayamos
cubierto todo el conjunto F, de forma que obtendremos una ordenacin, por su
importancia, de todas las entradas.
Para el clculo de la informacin mutua I(C,f) entre una entrada f y el
conjunto de clases se usar la ecuacin (3.54).
I (C , f ) =

p( ci | rk ( f )) log 2

"i = 1... M
"k = 1... N

p( rk ( f ) | ci )
p(ci ) p( rk ( f ))

(3.68)

En ella r1(f), ..., rN(f) es una particin del rango de variabilidad de los
valores de la entrada f en partes iguales. La suma se realiza sobre todos estos
intervalos y sobre todas las clases. Las entradas estn normalizadas en el rango
[0,1] por lo que la generacin de los intervalos consiste en dividir el intervalo
[0,1] en un nmero N de particiones iguales. El nmero de intervalos N de la
particin se fija habitualmente entre 16 y 32. Nosotros lo hemos tomado como 24
en nuestros experimentos.
En la ecuacin P(ci) es la probabilidad de que una observacin sea de la
categora o clase ci. P(rk(f)) es la probabilidad de que una observacin tenga la
entrada frk(f) y P(rk(fj)|ci) es la probabilidad de una observacin con fjrk(fj) y
que se clasifique en la clase ci.
Anlogamente, para el clculo de la informacin mutua I(f,s) entre dos
entradas f y s se usar la ecuacin (3.69).
En ella, P(rk(f)) es la probabilidad de que una observacin tenga la entrada
frk(f), P(rj(s)) es la probabilidad de que una observacin tenga la entrada srj(s)
- 107 -

3.3. MTODOS DE SELECCIN DE ENTRADAS BASADOS EN ACE

y P(rk(f)/ rj(s)) es la probabilidad de que una observacin tenga la entrada frk(f) y


la entrada srj(s).
I ( f , s) =

p( rk ( f ) | r j ( s )) log 2

" j = 1... N
" k = 1... N

p( rk ( f ) | r j ( s ) )
p( r j ( s )) p( rk ( f ))

(3.69)

El clculo de las probabilidades se hace contando la frecuencia de aparicin


en el conjunto de entrenamiento, de forma semejante a la que se describe en el
siguiente mtodo.
MTODO CHI
Otro mtodo diferente fue propuesto en [24] y lo denominaremos CHI.
El mtodo est basado en el clculo de la entropa de una entrada.
Se define la entropa de una fuente de informacin X con posibles salidas xi
(i=1,...,n) como:
H(X ) =

P( xi ) I ( xi ) = -

i =1

P( xi ) log 2 P( xi )

(3.70)

i =1

Donde P(xi) es la probabilidad de que se d la salida xi.


Sea C(M,L) el clasificador en M categoras de las caractersticas de entrada.
La entropa ser:
H (C ) = -

P(ci ) log 2 P(ci )

(3.71)

i =1

Donde P(ci) es la probabilidad de que una observacin sea de la categora o


clase ci. Esta probabilidad se calcular por la siguiente ecuacin:
P ( ci ) =

N (ci )
No

N ( ci )
M

(3.72)

N (ci )
i =1

Donde No es el nmero total de observaciones consideradas (en nuestro caso


nmero de patrones del conjunto de entrenamiento), y N(ci) es el nmero de
observaciones que pertenece a la clase ci.
El objetivo es medir la contribucin de cada caracterstica o entrada fj en la
tarea de clasificacin. Para ello, se divide el rango de valores que pueden tomar
cada una de las entradas en partes iguales, N particiones: r1(fj), r2(fj),..., rN(fj).

- 108 -

3.3. MTODOS DE SELECCIN DE ENTRADAS BASADOS EN ACE

Igual que en el mtodo anterior, en nuestros experimentos tomaremos 24


particiones en el rango de variabilidad del intervalo [0,1].
Sea f una entrada y P(ci|rk(fj)) la probabilidad de una observacin con
fjrk(fj) y que se clasifique en la clase ci. Entonces:
N ( rk ( f j ), ci )

P( ci | rk ( f j )) =

N ( rk ( f j ))

(3.73)

Donde N(rk(fj)) es el nmero de observaciones con fjrk(fj) y N(rk(fj),ci) es el


nmero de observaciones de N(rk(fj)) que son de la clase ci (i=1,...,M). Se
cumplir entonces:
N ( rk ( f j )) =

N (rk ( f j ), ci )

(3.74)

i =1

La probabilidad de que una observacin tenga fjrk(fj) ser:


P( rk ( f j )) =

N ( rk ( f j ))
No

No =

N ( rk ( f j ))

(3.75)

k =1

Finalmente, se puede definir una medida similar a la entropa para una


entrada fj mediante la ecuacin siguiente:
CH ( f j ) = -

k =1

i =1

p(rk ( f j )) p(ci | rk ( f j )) log 2 p(ci | rk ( f j ))

(3.76)

Esta medida es siempre positiva y una entrada fj es considerada ms


relevante si su valor CH es menor.
MTODO SET
En [25] se propone un nuevo mtodo basado en el clculo de ganancias que
llamaremos SET.
En primer lugar, se define la informacin esperada para la clasificacin
como:
M

I ( S ) = -
j =1

nj
n

log 2

nj
n

(3.77)

Donde nj es el nmero de ejemplo de entrenamiento de la clase j y n es el


nmero total de ejemplos de entrenamiento, conjunto S.
Consideramos para cada entrada fi una particin en su rango de variabilidad
r1(fi), r2(fi),..., rN(fi), donde N es el nmero de particiones (igual a 24).
- 109 -

3.3. MTODOS DE SELECCIN DE ENTRADAS BASADOS EN ACE

Sea Sik un subconjunto de S, en el cual el valor de la caracterstica fi en todos


los vectores del conjunto de entrenamiento, est en la particin rk(fi).
M

nikj

j =1

nik

I ( S ik ) = -

log 2

nikj

(3.78)

nik

Donde nikj es el nmero de ejemplos del subconjunto Sik que son de la clase j
(nmero de muestras x para las que firk(fi) y xcj) y nik es el nmero total de
elementos del subconjunto Sik.
Para una entrada fi la informacin esperada se puede calcular por la
ecuacin siguiente:
Ei =

k =1

nik
n

(3.79)

I ( S ik )

La contribucin de una entrada fi a la ganancia ser:


Gi = I ( S ) - E i

(3.80)

Posteriormente, se normaliza la contribucin de cada entrada y se define la


ganancia normalizada Gi como:
Gi =

Gi
Ii

Ii = -

k =1

nik
n

log 2

nik

(3.81)

En ellas n es el nmero total de muestras del conjunto de entrenamiento, y


nik es el nmero de muestras para las cuales la entrada fi toma un valor dentro del
intervalo de la particin rk(fi) (firk(fi)).
Cuanto mayor sea la ganancia normalizada ms relevante se considera la
entrada.
MTODO GD-DS
Por ltimo, en [26] se describe un mtodo que llamaremos GD_DS.
Est basado en la medida de la llamada Distancia GD que viene a ser una
generalizacin de la Distancia de Mtaras, la cual permite recoger la
interdependencias entre las entradas y definir una ordenacin de las mismas segn
su importancia.
El clculo de la Distancia GD entre un conjunto de entradas F y el conjunto
de las clases C se realiza como indica la ecuacin (3.82).
d GD ( F , C ) = D ( F , C ) T T -1 D( F , C )

- 110 -

(3.82)

3.3. MTODOS DE SELECCIN DE ENTRADAS BASADOS EN ACE

En ella T es la matriz de transinformacin, dada en la ecuacin (3.83),


compuesta por las informaciones mutuas I(fi,fj) entre dos entradas fi y fj. Para
calcularlas se utiliza la ecuacin que vimos antes (3.69).
I ( f 1 , f 1 ) I ( f 1 , f 2 ) ... I ( f 1 , f p )

I ( f 2 , f 1 ) I ( f 2 , f 2 ) ... I ( f 2 , f p )
T =

............

I ( f p , f 1 ) I ( f p , f 2 ) ... I ( f p , f p )

(3.83)

Esta matriz tiene las siguientes propiedades:


Los elementos de la diagonal principal son siempre mayores o
iguales al resto de elementos de la misma fila o columna.
Todos los elementos son no negativos.
La matriz es simtrica.
Por otra parte, D(F,C) es un vector de distancias de Matars que tendr la
siguiente expresin:
d ( f1 , C )

d ( f 2 , C)
D( F , C ) =

......

d ( f p ,C)

(3.84)

Aqu, la distancia d(fi,C) entre una entrada y el conjunto de clases C se


calcula con la ecuacin (3.85).
d ( fi , C) = H ( fi , C) - I ( fi , C)

(3.85)

Su primer trmino, es una entropa que puede obtenerse con la ecuacin


(3.86) y el segundo trmino, es de nuevo la informacin mutua entre una entrada y
el conjunto de clases dada en la ecuacin (3.68).
N

H ( f i , C ) = - p( rk ( f i ) | c j ) log 2
k =1 j =1

p( rk ( f i ) | c j )
p( c j ) p( rk ( f i ))

(3.86)

Por tanto, cuando el conjunto de entradas proporcione bastante informacin


acerca de una clase, sus informaciones mutuas sern altas y por tanto d(fi, C) sern
bajas. Si un elemento de T aumenta (aumenta la interaccin entre dos entradas) la
distancia tambin aumenta.
As, los valores de dGD sern ms bajos cuanto mayor sea la informacin
que proporcione el conjunto de entradas a la clase, y menos interaccin exista
entre las entradas del conjunto.
- 111 -

3.3. MTODOS DE SELECCIN DE ENTRADAS BASADOS EN ACE

La ecuacin (3.82) que se propone en este mtodo es semejante a la


definicin de distancia de Mahalanobis (Duda & Hart 1973), sustituyendo la
matriz de covarianzas por la matriz de transinformacin.
Finalmente, el mtodo utiliza un algoritmo muy similar al que utilizaba el
mtodo denominado BA que expusimos anteriormente.
1) Definir F como un conjunto con todas las entradas candidatas y
sea S un conjunto vaco.
2) Para todas las entradas fF, calcular dGD(F-{f},C), la Distancia
GD entre el conjunto de entradas F-{f} y el conjunto de clases C.
3) Encontrar la entrada g que minimice las distancias del paso 2.
Incluir g en el conjunto S y eliminarla de F. S=S{f}, F=F-{f}.
4) Repetir los pasos 2 y 3 hasta que el cardinal de S sea k.
De nuevo podremos obtener una ordenacin de entradas, ser ms
importante aquella entrada que haya sido incluida primero en el conjunto S.

3.3.2. Distancias dentro y entre clases


MTODO RLF
El primer mtodo incluido se denomina Relief y es muy popular en la
literatura sobre reconocimiento de patrones, se describe en [27] y lo denotaremos
como RLF.
Describiremos aqu igual que en la referencia [27] una versin simplificada
para problemas que slo tengan dos clases, c1 y c2.
Sea S el conjunto de ejemplos de entrenamiento. Sea un ejemplo de
entrenamiento x={x1, x2,...,xp} de p componentes de entrada. De cada ejemplo,
conocemos su clasificacin, es decir, si es de la clase c1 o de la c2.
El algoritmo usado en el mtodo RLF ser el siguiente:
1) Inicializar aleatoriamente en los alrededores de 0.5 un vector de
relevancias de los pesos W=(w1, ..., wp).
2) Repetir los siguientes pasos un nmero apropiado de veces m
superior al nmero de ejemplos de entrenamiento.
i) Escoger aleatoriamente un ejemplo x de S.
x=(x1,x2, ...,xp).

- 112 -

3.3. MTODOS DE SELECCIN DE ENTRADAS BASADOS EN ACE

ii) Escoger tambin aleatoriamente dos ejemplos de S,


zc1 e yc2, cercanos a x.
iii) Si (xc1) entonces N_hit=z; N_miss=y;
Si no

N_hit=y; N_miss=z.

iv) Actualizar los valores de las relevancias de los pesos:


Para i=1 hasta p;
wi = wi - diff( xi , N_hiti )2+diff(xi , N_missi )2;
3) Normalizar las relevancias dividiendo por m.
En la actualizacin de las relevancias, la diferencia entre las componentes
de dos ejemplos, diff(fi,si), depende de la naturaleza de estas componentes.
Para el caso de componentes nominales (informacin nominal) usaremos:
0, si f i y si son los mismos
diff ( f i , si ) =
1, si f i y si son diferentes

(3.87)

Para componentes numricas (las utilizadas en nuestros experimentos)


utilizaremos la ecuacin (3.88).
diff ( f i , si ) =

f i - si
mk

(3.88)

Aqu, mk es un factor que normaliza los valores de diff en el intervalo [0,1].


En los problemas que nosotros hemos utilizado en nuestros experimentos, los
datos estn normalizados en el intervalo [0,1], por lo cual, no ser necesario el
factor mk en la ecuacin (3.88).
De nuevo, una entrada es considerada ms importante, si su correspondiente
componente en el vector de relevancias es mayor.
MTODO SCH
Otro mtodo de este tipo se describe en [28] y lo denominaremos SCH.
Aqu se define la distancia entre dos entradas como la Distancia Eucldea
sopesada dada por la ecuacin (3.89).
p

d ij =

wq ( f qi - f qj ) 2

(3.89)

q =1

La ecuacin calcula la distancia entre dos ejemplos (de dimensin p) de


entrenamiento, F i=(f1i, ...,fpi) y F j=(f1j, ...,fpj) asignando pesos a sus componentes.

- 113 -

3.3. MTODOS DE SELECCIN DE ENTRADAS BASADOS EN ACE

Sea N el nmero de ejemplos en el conjunto de entrenamiento. Se definen


los valores de d S , d D , ND y NS segn las siguientes ecuaciones.
1,
S (i , j ) =
0,

si F i y F j son de la misma clase

1,
D (i , j ) =
0,

si F i y F j no son de la misma clase

NS =

(3.90)

en otro caso

en otro caso

S (i, j );

ND =

i =1 j =i +1

D (i, j);
i =1 j =i +1

Posteriormente, se define, en la ecuacin (3.91), una funcin criterio J que


mide la relacin entre las distancias nter e intraclases.
J=

1
NS

(i, j ) d ij -

i =1 j =i +1

1
ND

(3.91)

D (i, j ) d ij
i =1 j =i +1

El siguiente paso consistir en inicializar los pesos de forma aleatoria en un


cierto intervalo, e ir modificndolos en las diferentes iteraciones mediante
gradiente descendente. Se debe encontrar un conjunto de pesos wq que minimicen
J y para ello se utiliza la tcnica del gradiente descendiente.
La variacin de la funcin J respecto de los pesos se puede calcular
mediante la siguiente ecuacin:
J
wq

1
NS

i =1 j = i +1

d S (i, j ) ( f qi - f qj )

wt ( fti - ft j )

1
ND

i =1 j = i +1

t =1

d D (i, j ) ( f qi - f qj )

(3.92)

wt ( fti - ft j )

t =1

La adaptacin de los pesos en cada iteracin se realizar segn:


wq (t + 1) = wq (t ) +

J
wq

(3.93)

En nuestros experimentos hemos tomado un valor para el paso de


adaptacin l de 0.1.
Los valores finales de los pesos se restringirn al intervalo [0,1].
Una entrada ser ms importante, si su componente correspondiente en el
vector final de pesos es mayor.
Esto nos permitir de nuevo ordenar las entradas en funcin de su
importancia.

- 114 -

3.3. MTODOS DE SELECCIN DE ENTRADAS BASADOS EN ACE

3.3.3. Lgica difusa


En este tipo de mtodos la bibliografa es menos extensa. De hecho, solo
hemos estudiado un mtodo que realiza un anlisis de regiones difusas.
MTODO FUZ
Denominaremos FUZ al mtodo que se describe en [29].
Este mtodo realiza un anlisis de regiones difusas y para ello es necesario
generar en primer lugar un conjunto de reglas difusas que nos delimiten dichas
regiones.
Sea Xi el subconjunto de ejemplos del conjunto de entrenamiento X,
catalogados como pertenecientes a la clase ci. Supongamos que tenemos un
problema con M clases diferentes.
Primero, generamos las reglas de difusas para los cuales, dado un vector de
entrada x puede ser clasificado en una de las M clases.
Podemos generar varios hiper-rectngulos del nivel 1 (para las diferentes
clases), que llamaremos Aii, i=1,...,M, cuyos bordes son los mximos y mnimos
de cada entrada de los ejemplos del conjunto Xi. A dichos hiper-rectangulos los
llamaremos regiones de activacin.
Si dos regiones de activacin se solapan, por ejemplo Aii(1) y Ajj(1),
podemos definir otro hiper-rectngulo de nivel 1, Iij(1), como la zona de
interseccin de las regiones de activacin. A estos nuevos hiper-rectngulos los
denominaremos regiones de inhibicin.
Con estas definiciones, un primer conjunto de reglas difusas sera:
Regla: Sea un ejemplo x, si xAii(1) y xIij(1) "j, ji entonces xci
Este proceso puede continuar y podemos definir regiones de activacin de
nivel 2, Aij(2) y Aji(2) de las clases ci y cj , cuando existen datos en la regin de
inhibicin Iij(1). Por ejemplo, para definir la regin Aji(2) utilizaremos los
ejemplos Xi que pertenecen a la clase ci y estn contenidos en la regin de
inhibicin de nivel 1, Iij(1).
De nuevo, si las regiones de activacin de nivel 2, Aij(2) y Aji(2), se solapan
podramos definir una regin de inhibicin de nivel 2, Iij(2).

- 115 -

3.3. MTODOS DE SELECCIN DE ENTRADAS BASADOS EN ACE

La continuacin del proceso se realizara hasta que las nuevas regiones de


activacin encontradas no se solapen. Es ese caso no se podrn definir nuevas
regiones de inhibicin y el proceso acabar.
Una vez obtenidas todas las regiones de activacin e inhibicin, podemos
definir y calcular las relaciones de excepcin, oij(F), para un conjunto de entradas
F. Dicha relacin es la suma para todos los niveles n, del resultado de dividir el
volumen de la regin de inhibicin, Iij(n), entre el volumen de la regin de
activacin, Aij(n), multiplicando dicho cociente por la probabilidad de encontrar
un ejemplo dentro de la regin de inhibicin (esta probabilidad se estima
experimentalmente utilizando el conjunto de entrenamiento).
La probabilidad ser el nmero de datos de entrenamiento de la clase i en la
regin de inhibicin, dividido entre el nmero total de ejemplos de entrenamiento.
A su vez, podemos definir la relacin de excepcin total, O(F), para un
conjunto F de entradas, como la suma, para todos los valores de i y j con ij de la
relaciones de excepcin oij(F).
Finalmente, el algoritmo para ordenar las entradas es similar a los de los
mtodos ya vistos BA y DS_GD, slo que en este caso debemos de minimizar la
relacin de excepcin total.
Sea el conjunto total de entradas F. Una entrada ser eliminada (la ms
irrelevante) si al quitarla se minimiza la excepcin total.
Llamamos, Forg al conjunto original de M entradas M2 y Fm a un conjunto
originalmente vaco. Se define el siguiente algoritmo:
1) Inicialmente ponemos Fm igual al conjunto original Forg , m=M.
2) Repetir los siguientes pasos hasta que m=1.
i) Calcular O(Fim-1) para i=1,...,m, donde Fim-1 es el conjunto Fim en
el cual se ha eliminado la entrada fim.
ii) Encontrar la entrada fjm que haga mnima la excepcin total
O(Fjm-1).
iii) Poner el conjunto Fm-1 Fjm-1, donde fjm ha sido eliminado.
iv) Poner m=m-1.
Con este algoritmo obtendremos una ordenacin de las caractersticas por su
importancia. La primera eliminada ser la menos importante.

- 116 -

3.4. MTODOS DE SELECCIN DE ENTRADAS BASADOS EN ARE

3.4. Mtodos de seleccin de entradas basados en


ARE
La ltima categora no la trataremos en esta Tesis Doctoral por tratarse de
mtodos que utilizan arquitecturas diferentes de Multilayer Feedforward y
bastante diferentes a los descritos. Dejaremos su estudio para trabajos futuros.

3.5. Algoritmo de aprendizaje mediante gradientes


conjugados
Durante nuestra investigacin el algoritmo de entrenamiento normalmente
utilizado ha sido Backpropagation. Sin embargo, algunos autores han comentado
que dicho algoritmo posee baja eficiencia temporal, es decir, la convergencia de
las redes entrenadas con l suele ser bastante lenta.
Este hecho, en una investigacin como la que aqu llevamos a cabo, tiene
gran importancia debido al gran nmero de problemas sobre el que realizamos
nuestros experimentos.
Por ello, pensamos que en ciertas ocasiones podra ser interesante acelerar
mediante algn mecanismo el proceso de convergencia de Backpropagation.
En la referencia [40], se describe un nuevo algoritmo que utiliza gradientes
conjugados y optimiza de forma dinmica el valor del paso de adaptacin
utilizado por Backpropagation.
Un valor fijo del paso de adaptacin afecta al tiempo de convergencia de la
red, por lo que en la referencia, se recomienda analizar el cambio de la funcin
objetivo (o error) respecto del paso de adaptacin.
En Backpropagation tenemos bsicamente dos pasos. En el primero, se
calcula el valor actual de una salida computado hacia delante, es decir, desde la
capa de entrada de la red (usando las entradas y pesos) hacia la capa de salida. En
el segundo paso se adaptan los valores de los pesos anteriores a unos nuevos
valores, utilizando el mtodo del gradiente descendente y recalculando tanto los
pesos como el error, la computacin es ahora hacia atrs. Esto se repite para todos
los patrones de entrada y tantas veces como sea necesario hasta obtener el valor
deseado del error (punto de convergencia).

- 117 -

3.5. ALGORITMO DE APRENDIZAJE MEDIANTE GRADIENTES CONJUGADOS

El nuevo algoritmo posee la misma base que Backpropagation, pero a la


hora de adaptar los valores de los pesos usa gradientes conjugados y el parmetro
llamado paso de adaptacin se considera un valor variable que va siendo adaptado
al tiempo que los pesos. De esta forma, se adapta su valor dinmicamente
intentando acelerar la convergencia de la red.
La convergencia del nuevo algoritmo puede ser acelerada en un factor de 10
a 50 dependiendo de la arquitectura de la red y de la aplicacin.
A continuacin, describimos el nuevo algoritmo de entrenamiento. Las
ecuaciones del mismo estn descritas de forma general, es decir, para una red con
cualquier nmero de capas.
Veamos en primer lugar cul es la notacin que usaremos.
P

Nmero de ejemplos de entrenamiento.

Funcin de error de Backpropagation.

Nm

Nmero de unidades en la capa m.

y sm,i

Salida de la i-sima unidad de la capa m con el patrn XS presente en


la capa de entrada.
y sm,i = f ( Wi mt Y sm -1 ) i = 1,..., N m m = 1,..M

Ysm -1

Vector de salidas de la capa m-1.

Wimt

Vector de pesos conectados entre la i-sima unidad de la capa m y


las unidades de la capa m-1.

f(.)

Funcin de transferencia de la red (sigmoide).

Ysm -1 = [1, y sm,i-1 ,..., y sm, N m -1 ]T

La funcin de error para el caso de Backpropagation y la adaptacin de los


pesos pueden expresarse mediante las ecuaciones:
J (W ) =

1
P NM

P NM

[ d s,i - y sM,i ] 2

(3.94)

s =1 i =1

W (k + 1) = W (k ) - J (W ) W =W ( k ) = W (k ) -

J (W )
W

(3.95)
W =W ( k )

Para el nuevo algoritmo, se deben transformar estas ecuaciones para que la


adaptacin de los pesos y el error dependan del valor del paso de adaptacin .
As, se define una nueva funcin de error dependiente del paso de
adaptacin:
h( m ) J (W ( k ) + m P (k ) )

- 118 -

(3.96)

3.5. ALGORITMO DE APRENDIZAJE MEDIANTE GRADIENTES CONJUGADOS

La ecuacin correspondiente de adaptacin de los pesos ser:


W (k + 1) = W (k ) + m P( k )

(3.97)

En la referencia, el valor tomado para el paso de adaptacin viene dado por:


m (k ) = -

h (0)
h (0)

(3.98)

Las ecuaciones de las derivadas se pueden obtener a partir de la definicin


dada para la nueva funcin de error h() y sus expresiones sern:
h ( m ) = J [W ( k ) + m P (k )]T P( k )

(3.99)

h ( m ) = P( k ) T 2 J [W (k ) + m P( k )] P( k )

Sustituyendo en las ecuaciones anteriores y derivando se obtiene:


h ( m ) = h ( m ) = -

2
P NM

P NM

y sM,i

s =1 i =1

(d s,i - y sM,i )

2 y sM,i y sM,i
M

-
(d s,i - y s ,i )
2
m

s =1 i =1
m
P NM

2
P NM

(3.100)

Las expresiones de las derivadas primera y segunda de las salidas de la capa


m, con i=1,2,...,Nm y m=1,2,...,M, sern:
Wi m (k + 1) = Wi m (k ) + Pi m (k )

Llamamos :
y sm,i

2 y sm,i
2

= f [Wi m (k + 1)] Y sm -1

= f [Wi (k + 1)]

(3.101)

Ysm -1

m -1

T Y
Pi m (k ) T Ysm -1 + [Wi m (k + 1)] s

m -1

T Y
Pi m (k ) T Y sm -1 + [Wi m (k + 1)] s +

2 m -1

Y m -1
T
T Ys
+ f [Wi m (k + 1)] Ysm -1 2 Pi m (k ) T s
+ [Wi m (k + 1)]
2

Donde, si m=0 las derivadas primera y segunda de Ysm , sern cero.


Necesitamos tambin conocer P(k), dicho valor vendr dado por la
ecuacin:
P( k ) = -J (W ( k ) ) + b ( k ) P( k - 1)

En el instante inicial P(k) se hace coincidir con el gradiente.

- 119 -

(3.102)

3.5. ALGORITMO DE APRENDIZAJE MEDIANTE GRADIENTES CONJUGADOS

El parmetro (k) puede calcularse mediante la siguiente expresin:


Llamamos : k = J (W (k ))
[ k - k -1 ]T k

(k - 1) 2
(k ) =

(3.103)
si k rN r o k T k -1 0.2 k k -1

en otro caso

Para aplicar el nuevo algoritmo basta con utilizar las ecuaciones anteriores
en el proceso de entrenamiento de la red.
Dichas ecuaciones estn generalizadas para cualquier nmero de capas en la
red. En nuestro caso, usaremos una red con tres capas (una sola capa oculta), por
lo que basta con poner M=3 y obtener simplemente las ecuaciones para la capa
oculta y la de salida.

- 120 -

3.6. USO DE WEIGHT DECAY EN LOS MTODOS ARNMF

3.6. Uso de Weight Decay en los mtodos ARNMF


En la seccin 3.2 de este captulo, vimos una amplia descripcin de los
mtodos de seleccin de entradas basados en el anlisis de una red neuronal
Multilayer Feedforward.
All vimos, que para poder aplicar los mtodos debamos de partir de una
red Multilayer Feedforward entrenada.
Una cuestin que ha surgido recientemente en la bibliografa, es qu
algoritmo de entrenamiento debe ser usado para entrenar dicha red inicial.
Al principio (tambin en nuestros experimentos) se utiliz Backpropagation.
La razn puede ser simplemente por simplicidad o porque es uno de los
algoritmos ms conocidos y usados.
Sin embargo, algunos autores [11] han usado y propuesto que se utilicen
mtodos de regularizacin (en ingles regularization) como el de weightdecay. La propuesta parece bastante razonable ya que el efecto de weight-decay
es precisamente podar pesos irrelevantes, lo que en principio la llevara a eliminar
entradas innecesarias.
Podemos preguntarnos si hay alguna motivacin concreta para utilizar
tcnicas de regularizacin como por ejemplo weight-decay en el proceso de
entrenamiento. Veamos en que consiste bsicamente un mtodo de regularizacin.
Los mtodos de regularizacin se propusieron inicialmente con el objetivo
de aumentar la capacidad de generalizacin de una red neuronal [36]. El principio
bsico de los mtodos de regularizacin es, introducir un trmino aditivo en la
funcin de error que habitualmente se usa en el algoritmo de entrenamiento. Un
ejemplo, es la ecuacin:
Enew = Error + Ew

(3.104)

Donde Error es el criterio de error usual, Ew es el trmino de regularizacin


y Enew ser la nueva medida que debe ser minimizada en el aprendizaje.
La utilidad del trmino de regularizacin es diversa, pero en el caso de redes
neuronales se suele utilizar para penalizar un exceso de parmetros (pesos,
neuronas, etc.) en la estructura de la red neuronal. Como resultado de la
penalizacin, durante el proceso de aprendizaje se producir el efecto de disminuir
el nmero de parmetros, por lo que, la estructura de la red resultante se puede
considerar menos compleja. Tambin, como resultado, se ha observado en
bastantes ocasiones que aumenta la capacidad de generalizacin de la red.

- 121 -

3.6. USO DE WEIGHT DECAY EN LOS MTODOS ARNMF

Se pueden proponer multitud de trminos diferentes de regularizacin pero


para el caso de Multilayer Feedforward el trmino ms simple es aquel que
penaliza la magnitud de los pesos, ms conocido como weight-decay.
El efecto de este trmino es que los pesos se aproximen progresivamente a
cero. En este sentido, los pesos de la red que no sean tiles y el algoritmo de
aprendizaje no incremente su magnitud, puede que sean finalmente eliminados, es
decir, que su valor sea cero. As podemos ver weight-decay como un mtodo de
podado de pesos.
En nuestro caso, queremos ver como afectara el uso de weight-decay al
caso de que tengamos entradas irrelevantes o redundantes. Por ejemplo, si una
entrada es irrelevante no debera contribuir al proceso de clasificacin, por ello,
todos los pesos que estn conectados a ella deberan ser cero. Es decir, el
algoritmo de aprendizaje que utilicemos debera de dirigir el valor de este tipo de
pesos a cero y el efecto de usar weight-decay ser incrementar esta tendencia.
A priori, podemos pues pensar que el efecto de podado de weight-decay
debera ser beneficioso para los mtodos de seleccin de entradas, ya que
finalmente el nmero de pesos que se utilicen ser menor, los ms importantes.
Puede incluso, que esto influya directamente sobre las entradas irrelevantes y sus
pesos sean muy prximos a cero.
As, algunos autores [11] y [36] han propuesto aadir weight-decay en el
algoritmo de entrenamiento para realizar la tarea de seleccin de entradas.
Por ello, nosotros hemos considerado interesante comprobar esta hiptesis
experimentalmente y evaluar la eficiencia de los diferentes mtodos de seleccin
de tipo ARNMF utilizando el algoritmo Backprogation con y sin weight-decay.
La funcin de error que se utiliz para el caso de weight-decay fue la
siguiente:
E=

1
P

P Noutput

Nweights

(tij - oij )2 + wk2


i =1

j =1

(3.105)

k =1

Donde P es el nmero de patrones de entrenamiento, Noutput es el nmero


de salidas o clases de la red y Nweights el total de pesos de la estructura.

- 122 -

3.7. METODOLOGA

3.7. Metodologa
La metodologa que emplearemos aqu es la habitual utilizada en redes
neuronales.
El objetivo final es comparar las eficiencias que proporcionan los diferentes
mtodos y dar una ordenacin de los mtodos en funcin de su eficiencia relativa.
Los pasos generales a seguir en la investigacin han sido los siguientes:

Recopilacin bibliogrfica y eleccin de los mtodos de seleccin.


Clasificacin y estudio de los mismos.

Recopilacin y preparacin de las bases de datos a utilizar.

Obtencin de la ordenacin de entradas que suministra cada mtodo.

Obtencin de los subconjuntos ptimos de entradas.

Comparacin de mtodos entre s.

Vamos a ver que metodologa se emplear en cada uno de los apartados.


Recopilacin bibliogrfica
En primer lugar, se realiz una recopilacin bibliogrfica para determinar
los mtodos de seleccin de entrada ms representativos que utilizaramos en
nuestros experimentos.
Una primera revisin se realiz con la ayuda de bases de datos como
INSPEC ON DISK disponible en la Universidad de Valencia. En ella se puede
acceder a la lectura de los abstract de los artculos para realizar una seleccin de
aquellos que resultan de inters en nuestro estudio.
Tras la lectura y estudio detallado de los artculos que describan mtodos
de seleccin de entradas, se lleg a la seleccin de un total de 26 mtodos
diferentes: 19 basados en el anlisis de la red neuronal Multilayer Feedforward y
7 basados en el conjunto de entrenamiento.
Posteriormente, se realiz una clasificacin de los mismos atendiendo a su
semejanza. En los apartados anteriores se ha realizado una descripcin detallada
de dichos mtodos.
Seleccin y preparacin de las bases de datos
En segundo lugar, se escogieron las bases de datos o problemas sobre los
cuales se iban aplicar dichos mtodos de seleccin de entradas. Los problemas
- 123 -

3.7. METODOLOGA

utilizados son problemas del UCI repository of machine learning databases


(http://www.ics.uci.edu/~mlearn/MLRepository.html) que estn a disposicin
pblica.
Se han utilizado un total de 15 problemas o bases de datos cuyos nombres
hemos abreviado como sigue:
Abalone (AB), Balance Scale Weight & Distance (BL), Cylinder Bands
(BN), BUPA Liver Disorders (BU), Credit Approval (CR), Display1 (D1), Glass
Identification (GL), Heart Disease (HE), Mushroom (LE), The Monks Problems
(M1, M2, M3), Pima Indians Diabetes (PI), 1984 U.S. Congressional Voting
Records (VO), Wisconsin Diagnostic Breast Cancer (WD).
En el primer captulo dimos una descripcin de los mismos.
Las bases de datos seleccionadas fueron adaptadas del siguiente modo.
Primero se ha normalizado el rango de variabilidad de las entradas dentro del
intervalo [0,1]. Esto es importante en los mtodos ARNMF, ya que dicho rango
tiene influencia en el valor final de los pesos conectados a las entradas y por tanto
directamente sobre las medidas de relevancia dadas en los mtodos utilizados.
Despus, para todos los problemas, en todos los ejemplos, se introdujo una
entrada adicional (la primera) generada aleatoriamente dentro del intervalo [0,1].
De esta forma, dicha entrada debera ser totalmente irrelevante, intil, por lo que
podra ser una medida de la eficiencia de los mtodos, el mtodo que considere
esta entrada como muy importante ser, en principio, bastante ineficiente para ese
problema concreto.
Igual que en captulo anterior, el conjunto de datos de cada problema para
cada simulacin que realicemos se divide en dos, un conjunto de datos para el
entrenamiento y conjunto de datos para el test. Dentro de los datos de
entrenamiento se ha realizado otra divisin entre los datos propiamente para el
entrenamiento y los datos utilizados para cros-validacin, los cuales nos
permitirn escoger el punto de convergencia de las redes.
Ordenacin de las entradas
El primer resultado que queremos obtener es una ordenacin de todas las
entradas en funcin de su importancia para cada problema seleccionado y para
cada mtodo de seleccin de entradas utilizado.
Con estas ordenaciones podramos estudiar cul sera el subconjunto ptimo
de entradas a usar para cada problema y mtodo y a partir de este resultado

- 124 -

3.7. METODOLOGA

podramos comparar la eficiencia de los mtodos entre s y dar una ordenacin de


la utilidad de los mismos (ser ms til el que funcione mejor).
Para llegar a este resultado, primero hemos estudiado por separado los
mtodos de seleccin de los diferentes tipo: ARNMF y ACE.
En el caso de los mtodos de tipo ARNMF, tambin se estudi el efecto de
la introduccin de weight-decay, obteniendo una ordenacin de las entradas
utilizando weight-decay y sin utilizarlo.
Para los mtodos ARNMF con y sin weight-decay como ya vimos, es
necesaria al menos una red neuronal entrenada en cada problema. Nosotros
utilizamos para su entrenamiento el algoritmo Backpropagation con y sin weightdecay.
El nmero de unidades ocultas de la red utilizada para cada problema fue
obtenido cuidadosamente mediante un procedimiento de prueba y error (igual que
se hizo en el captulo anterior).
La estructura final de una red despus del procedimiento de aprendizaje,
depende de ciertos factores incontrolables, como la inicializacin de los pesos
(que lo habitual es hacerla de forma aleatoria), la particin de los datos utilizada y
el valor que otros parmetros tienen antes de comenzar el entrenamiento.
Ello supone que la seleccin de entradas tambin depender en ltima
instancia de estos parmetros. Su eficiencia depender, en general, de la red
neuronal concreta que se haya utilizado.
Esta situacin es habitual en el campo de redes neuronales, y lo apropiado
es realizar varios entrenamientos diferentes con distintas condiciones de
inicializacin de pesos y particiones de datos, calculando despus la media de la
medida deseada (eficiencia, relevancia de las entradas, etc.) con un error.
El error se evala utilizando la teora de errores estndar:
Error =

s
n

(3.106)

En donde s es la estimacin experimental de la desviacin estndar de la


poblacin y n es el nmero de valores experimentales utilizado para calcular la
media.
Entrenamos finalmente 30 redes para cada problema y base de datos con
diferente inicializacin de los pesos y particin de los datos.

- 125 -

3.7. METODOLOGA

Para cada problema, se aplicaron los diferentes mtodos de ARNMF usando


siempre 30 redes. Se obtienen as, para un determinado mtodo 30 medidas de
relevancia para cada entrada. El valor final de la relevancia de cada entrada se
calcula hallando la media de los 30 valores, tal y como hemos dicho antes.
Pensamos que con esta metodologa los resultados finales de la relevancia
sern mucho ms fiables.
Como resultado de la aplicacin de los mtodos, tendremos para cada
problema y mtodo un vector de relevancias de dimensin igual al nmero de
entradas.
En la descripcin de cada mtodo, vimos si una entrada era ms o menos
importante segn si la medida de la relevancia usada en el mtodo, tuviese un
valor mayor o menor.
Por ejemplo, en el mtodo BL2 decamos que una entrada era la ms
importante si el valor de la medida de la relevancia para ella era el mayor.
Con este razonamiento, podemos ordenar las componentes del vector de
relevancias por orden de importancia, guardando en un nuevo vector el orden
mediante los ndices de la entrada a la que corresponde cada componente.
Tendremos unos nuevos vectores que contienen la ordenacin de las entradas en
funcin de su importancia para cada mtodo, la primera componente ser el ndice
de la entrada menos importante y la ltima componente el ndice de la ms
importante.
Finalmente, para cada problema y mtodo de seleccin, tendremos un vector
con la ordenacin de todas las entradas candidatas de menor o mayor importancia.
El siguiente objetivo sera determinar el subconjunto ptimo de entradas
necesario para resolver un cierto problema.
Obtencin de los subconjuntos ptimos de entrada
Los mtodos de seleccin slo nos permiten determinar el orden de
importancia de las entradas.
El siguiente paso ser determinar del conjunto total de entradas, cules son
innecesarias, es decir, obtener el subconjunto de entradas que proporcione la
mejor eficiencia o capacidad de generalizacin con el mnimo nmero de
entradas.

- 126 -

3.7. METODOLOGA

Para ello, nosotros hemos empleado una metodologa que nos permita
determinar cul ser dicho subconjunto para cada problema y para cada mtodo.
La idea es, a partir del vector de ordenacin de entradas por su importancia,
generar varios subconjuntos eliminando sucesivamente la entrada menos
importante. Si tenemos N entradas obtendremos un total de N-1 subconjuntos
candidatos a ser el subconjunto ptimo.
El primer subconjunto se obtiene quitando la entrada menos importante
(primera componente del vector). El segundo subconjunto se obtiene quitando las
dos entradas menos importantes (primera y segunda componentes del vector de
ordenacin de entradas). El resto de subconjuntos se obtiene sucesivamente
eliminando una entrada ms en cada uno de ellos.
Para escoger el subconjunto ptimo de entre todos los generados
necesitaremos medir la eficiencia que proporciona cada subconjunto (cmo de
buenas son las entradas que incluye). Para ello, de nuevo necesitaremos
entrenar una red para cada subconjunto generado y medir su capacidad de
generalizacin.
Debemos recordar que, como hemos dicho antes, la eficiencia final de un
subconjunto depender del clasificador que se vaya ha utilizar. En nuestro caso, el
clasificador de inters es Multilayer Feedforward y como ya hemos comentado
antes la eficiencia obtenida en el test (medida de la capacidad de generalizacin)
depender de la inicializacin de los pesos y de la particin de los datos realizada
en el entrenamiento.
De nuevo y por las mismas razones que antes, en lugar de entrenar una
nica red para cada subconjunto se realizaron varios entrenamientos diferentes
con distintas condiciones de inicializacin de pesos y particiones de datos,
calculando despus la media de la eficiencia con un error.
Finalmente, se ha entrenado un mnimo de diez redes (con diferente
inicializacin de pesos y particiones de datos) y se ha obtenido al final una
eficiencia media (porcentaje medio de aciertos en el test) con un error, ecuacin
(3.106). La medida de la eficiencia resulta as mucho ms significativa.
Hemos considerado que el error obtenido tenia un valor aceptable si no
sobrepasaba el 3%. Si era superior, hemos entrenado 10 redes ms, repitiendo este
proceso hasta que el valor del error no sobrepasar dicho porcentaje.
Para el entrenamiento de estas redes se ha optado por utilizar un algoritmo
diferente del estndar Backpropagation. Este algoritmo descrito en [40] y que

- 127 -

3.7. METODOLOGA

describimos en la seccin 3.5, utiliza gradientes conjugados y optimiza de forma


dinmica el valor del paso de adaptacin durante el proceso de entrenamiento,
en lugar de tomar un valor fijo. Con esto, se consigue que la convergencia de las
redes sea ms rpida, por lo que se acelera entre un 10 y un 50 % el tiempo de
computacin.
Puesto que estamos utilizando 15 problemas diferentes y tenemos que
entrenar un gran nmero de redes (un mnimo de 10 redes por subconjunto), el
factor tiempo es bastante importante. Con este algoritmo de entrenamiento
conseguimos acelerar en gran medida el proceso de aprendizaje de
Backpropagation.
Una vez medida la eficiencia media que proporciona cada subconjunto para
un problema y mtodo dado, hay que comparar los resultados de todos los
subconjuntos para determinar cul es el ptimo.
Entendemos por ptimo, aquel subconjunto que proporciona la mejor
capacidad de generalizacin, y en el caso de que haya dos subconjuntos con una
eficiencia indistinguible, aquel que posee un menor nmero de entradas.
Por lo tanto, para obtener el subconjunto ptimo es importante poder
asegurar que la diferencia entre dos eficiencias medias es estadsticamente
significativa.
Con este objetivo utilizaremos el test de hipotesis tests-t descrito en la
referencia [38]. Describimos a continuacin cmo se realizar dicho proceso.
Se plantea la hiptesis nula de la igualdad de las medias de dos medidas de
eficiencia (cada una correspondiente a un subconjunto de un mtodo y problema).
Sea mA y mB las eficiencias medias. Planteamos la hiptesis de que son
iguales.
Ho :

A = B

(3.107)

En los casos en que dicha hiptesis pueda ser rechazada, se puede asegurar
estadsticamente que la diferencia de valores es significativa.
El estadstico t, a calcular para dicho test es el correspondiente a la
comparacin de dos medias de poblaciones distintas y con varianzas
desconocidas. Su valor depende de las dos medias y las diferencias se hacen ms
distinguibles, conforme disminuyen los errores.

- 128 -

3.7. METODOLOGA

Se calcula el estadstico to segn la ecuacin (3.108) y si su valor es mayor


que un nmero que depende del grado de significancia, se concluye que los
resultados son distinguibles.
to =

x1 - x 2

(3.108)

Error12 + Error22

Los grados de libertad de la distribucin t a utilizar se calculan de acuerdo


con la siguiente ecuacin:
=

(Error12 + Error22 )2
Error14
n1 + 1

Error24

-2

(3.109)

n2 + 1

Como se coment anteriormente, las diferencias entre dos medias se hacen


ms distinguibles, conforme disminuyen sus errores.
A su vez, los errores disminuyen conforme se toman ms medidas. Como se
puede ver en la ecuacin (3.106), la desviacin estndar permanecer
aproximadamente constante (puesto que es una estimacin de la desviacin
estndar de la poblacin) y el nmero n de medidas aumentar.
Estos factores son los que se utilizarn para determinar el nmero de redes a
entrenar y utilizar en cada caso.
El objetivo es hacer las diferencias entre medias estadsticamente
significativas, y para ello el nmero de medidas a tomar depender de la
variabilidad (la desviacin estndar de la poblacin) que se obtenga en cada caso.
Es imposible determinar dicho nmero a priori y hay que hacerlo despus de
observar los primeros resultados experimentales.
En las anteriores ecuaciones correspondientes al test-t, est implcita la
suposicin de que la distribucin de la poblacin de las medidas es normal. Dicha
suposicin es bastante razonable en general.
El nivel de significancia tomado en el estadstico test-t es 0.1.
Veamos algunos ejemplos de seleccin del subconjunto ptimo.
Por ejemplo, supongamos los valores de la capacidad de generalizacin de
58.70.8 con 1 entrada omitida, y 58.10.7 con 5 entradas omitidas. Encontramos
con la prueba de hiptesis test-t que son claramente indistinguibles, por lo que nos
quedaramos con el que tiene ms entradas omitidas (el segundo caso).

- 129 -

3.7. METODOLOGA

En otro caso, con 58.10.7 con 5 entradas omitidas, y 552 con 7 entradas
omitidas, las capacidades de generalizacin son claramente distinguibles y es
mejor la primera, por lo que nos quedaramos con ese subconjunto.
En definitiva, si las capacidades de generalizacin son distinguibles,
escogemos el subconjunto que proporcione la mayor, y si son indistinguibles, el
subconjunto que tenga menor nmero de entradas (ms entradas omitidas).
El proceso ser partir del subconjunto de entradas formado por una entrada
omitida y compararlo con el de dos entradas omitidas. Nos quedaremos con
subconjunto que proporcione mayor eficiencia media, o en caso de que sean
indistinguibles con el que posea menor nmero de entradas (ms entradas
omitidas). Despus, compararemos el subconjunto seleccionado con otro, e iremos
repitiendo el proceso hasta haber pasado por todos, siendo el ltimo conjunto
seleccionado el que ser finalmente el subconjunto ptimo.
Al final del proceso tendremos un subconjunto ptimo de entradas para cada
mtodo y problema.
Comparacin de mtodos entre s
Finalmente, podemos comparar la eficiencia entre los distintos mtodos de
seleccin de entradas en un mismo problema, mediante la comparacin de la
eficiencia media de sus subconjuntos ptimos.
Aplicando de nuevo el estadstico test-t, vamos comparando los mtodos de
dos en dos, concluyendo en cada comparacin que ser mejor el mtodo que
proporcione mayor capacidad de generalizacin y que en caso de que no sean
distinguibles, aquel que contiene menor nmero de entradas (ms entradas
omitidas).
De esta forma, comparando los mtodos dos a dos en cada problema
podemos obtener una tabla en donde se describa si un mtodo funciona mejor,
peor o igual que otro en cada problema. Para obtener unas conclusiones ms
generales sobre la eficiencia relativa de dos mtodos, lo que se ha hecho ha sido
emplear el criterio simple de que un mtodo es mejor que otro si funciona mejor
en un mayor nmero de problemas.
Con esta metodologa, al final se puede obtener una ordenacin aproximada
de todos los mtodos de acuerdo con su eficiencia.
Este proceso es bastante laborioso, iremos obteniendo los resultados
progresivamente, es decir compararemos cada mtodo con todos los dems. En el
apndice II de la Tesis Doctoral se incluyen todos estos resultados.
- 130 -

3.8. RESULTADOS EXPERIMENTALES

3.8. Resultados Experimentales


Como ya se indic en el apartado de metodologa, el primer paso despus de
escoger los mtodos de seleccin de entradas, fue seleccionar los problemas
donde aplicarlos. Se escogieron un total de 15 problemas del repositorio UCI que
abarcan una gran variedad de problemas de clasificacin. Se normalizaron las
entradas y para todos los datos se introdujo una entrada irrelevante de forma
aleatoria (la primera entrada).
Para los mtodos de ARNMF, entrenamos con el algoritmo
Backpropagation 30 redes con diferente inicializacin de los pesos y particin de
los datos entre conjunto de entrenamiento, cros-validacin y test.
La misma operacin se realiz para los mtodos ARNMF con weight-decay,
utilizando el algoritmo Backpropagation con el trmino de regularizacin de
weight-decay descrito antes.
La arquitectura de red neuronal que entrenamos viene determinada por el
problema concreto (capa de entrada y salida). El nmero de unidades ocultas se
escogi en cada problema de forma cuidadosa mediante un proceso de prueba y
error. Los valores que se tomaron para los parmetros de entrenamiento fueron los
siguientes: intervalo de inicializacin de pesos 0.1, momento 0.05, y paso de
adaptacin 0.1.
Aplicando los mtodos a las 30 redes, se obtendr 30 medidas de relevancia
para cada entrada y mtodo. Calculando la media de los 30 valores para cada
entrada se obtiene el valor final de la relevancia de cada entrada para cada mtodo
y problema.
Para los mtodos ACE se obtiene las relevancias de cada entrada, mtodo y
problema sin ms que aplicar el mtodo sobre los ejemplos de entrenamiento.
Para el mtodo denominado BA, se utilizaron seis valores diferentes para el
parmetrob, por lo que para este mtodo tendremos seis resultados diferentes. Los
valores que escogimos fueron: 0.5, 0.6, 0.7, 0.8, 0.9 y 1. Al final obtendremos seis
resultados diferentes que llamaremos en las tablas de resultados como BA seguido
del valor de b.
Como dijimos en la metodologa obtendremos para cada problema y mtodo
un vector cuya dimensin es igual al nmero de entradas, donde la primera
componente ser la relevancia media correspondiente a la primera entrada, la
segunda la relevancia media de la segunda entrada y as sucesivamente.

- 131 -

3.8. RESULTADOS EXPERIMENTALES

Por ejemplo, para el problema BUPA Liver Disorders (BU) y el mtodo de


seleccin BL2 obtenemos el vector de relevancias medias de la Tabla 1.
Tabla 1. Vector de relevancias para el problema BU, mtodo BL2.
Entrada
Media
Desviacin

1
0.048786
0.044321

2
3
4
5
6
7
0.165080 0.379562 1.355403 1.108591 0.944618 0.199835
0.102213 0.208929 0.501284 0.394386 0.324958 0.092751

A partir de estos vectores y aplicado el criterio de importancia de entradas


dado por cada mtodo, podemos obtener, un nuevo vector cuyas componentes
sean los ndices de las entradas ordenadas por importancia.
La primera componente sera el ndice de la entrada cuya importancia es
menor y la componente ms alta sera el ndice de la entrada de mayor
importancia.
Por ejemplo, en el mtodo BL2 decamos que una entrada era la ms
importante si el valor de la medida de la relevancia para ella era el mayor.
Bastara con ordenar los valores de las relevancias y guardar en un vector los
ndices de las entradas que corresponden a esta ordenacin, de forma que primero
estar el ndice de la entrada con menor relevancia, y el ltimo sera el que
corresponde a una mayor relevancia.
Por ejemplo, para el problema BU y mtodo BL2 utilizando los valores de
la tabla anterior podemos ordenarlos y tendremos los resultados de la Tabla 2.
Tabla 2. Ordenacin de entradas para el problema BU, mtodo BL2.
Componente
del vector
Entrada

Ordenacin de entradas de menor a mayor importancia


1 (menor)
2
3
4
5
6
7 (mayor)
1
7
2
3
6
5
4

En la Tabla 1, vemos que la entrada 4 tiene un valor de relevancia de 1.355,


que resulta el ms grande, por lo que la entrada 4 ser la ms importante. El valor
ms pequeo de la relevancia vemos que corresponde con la entrada 1 por lo cual
esta ser la menos importante.
En principio, en este ejemplo, vemos que la entrada menos importante es
precisamente la entrada irrelevante que nosotros hemos introducido, con lo cual
en principio parece un mtodo que funciona bien para este problema.
Repitiendo este proceso con todos los mtodos y con todos los problemas,
podemos obtener las diferentes ordenaciones de las entradas. En el apndice II de
la Tesis Doctoral damos, para cada problema todas las ordenaciones para los
diferentes mtodos, Tablas 11-25.

- 132 -

3.8. RESULTADOS EXPERIMENTALES

En cada tabla (problema) aparece para cada mtodo (fila) la ordenacin de


las entradas segn su importancia. Igual que en la Tabla 2, la columna numerada
como 1 ser la entrada menos importante, y segn nos movemos hacia la derecha
de la tabla las entradas sern ms importantes.
Se puede observar que algunos mtodos no han podido aplicarse en ciertos
problemas.
El mtodo TEKE no pudo aplicarse en tres problemas ya que se obtenan
todos los valores de la relevancia nulos. El mtodo YOU no fue aplicable en 6 de
los quince problemas utilizados, debido a problemas de divisin por cero en los
clculos. En tres de los problemas donde aplicamos el mtodo GD_DS hemos
encontrado que la matriz de transinformacin es singular y el mtodo no se pudo
aplicar. Hemos detectado que el mtodo RLF no es aplicable en 4 de los 15
problemas. Por ejemplo, no se pudo aplicar en problemas artificiales en los que
slo disponemos de un patrn de entrada por cada clase, como en DISPLAY1. Por
ltimo, el mtodo denominado FUZ no fue aplicable en 4 de los 15 problemas, ya
que se obtenan excepciones cero.
Ahora, a partir de estas ordenaciones, necesitamos obtener los subconjuntos
de entradas ptimos en cada caso. Para ello, partimos como explicamos en la
metodologa de las ordenaciones anteriores y para cada vector obtenemos los
diferentes subconjuntos que resultan de ir eliminando sucesivamente una entrada
(la menos importante) en este vector.
Por ejemplo, para el caso anterior del problema BU y el mtodo BL2 los
subconjuntos posibles seran los que se dan en la Tabla 3.
Tabla 3. Subconjuntos de entradas para el problema BU, mtodo BL2
N entradas
omitidas
1
2
3
4
5
6

Operacin
realizada
omito la entrada 1
omito la entrada 1 y 7
omito la entrada 1, 7 y 2
omito la entrada 1, 7, 2 y 3
omito la entrada 1, 7, 2, 3 y 6
omito la entrada 1, 7, 2, 3, 6 y 5

Subconjuntos
posibles
{7, 2, 3, 6, 5, 4}
{2, 3, 6, 5, 4}
{3, 6, 5, 4}
{6, 5, 4}
{5, 4}
{4}

Para un mismo problema, puedo tener dos subconjuntos iguales (las mismas
entradas omitidas) para mtodos distintos. En ese caso no necesito hacer dos
veces las mismas simulaciones para comprobar la eficiencia, ya que se trata de los
mismos subconjuntos (el mismo problema) aunque los mtodos sean distintos.

- 133 -

3.8. RESULTADOS EXPERIMENTALES

Por ejemplo, para el problema BU, el subconjunto de una entrada omitida


para los mtodos BL1, BL2, CLO, PRI, DEV, LEE, SAN, TEKA, TEKB, DER2,
MAO, es el mismo (la entrada 1). Para el mtodo TEK la entrada omitida no es la
misma (es la 7) por lo que el subconjunto ser diferente.
Tenemos que decidir de estos subconjuntos cul es el que proporciona
mayor capacidad de generalizacin con el menor nmero de entradas, y este ser
el subconjunto que tomaremos como ptimo para cada mtodo y problema.
Aplicamos la metodologa que ya explicamos, para poder comparar los
subconjuntos. Primero, tendremos que evaluar sus eficiencias entrenando al
menos una red neuronal con cada uno. Lo que se hizo, fue para cada subconjunto
de entradas entrenar un mnimo de 10 redes, y luego obtener la media entre las
eficiencias de las mismas con un error. Este valor ser el que se utilizara para
comparar la eficiencia de los diferentes subconjuntos.
En el apndice II de la Tesis Doctoral se encuentra para cada problema una
tabla con las eficiencias de cada mtodo para todos los posibles subconjuntos,
Tablas 34-48.
Para cada problema hemos realizado una tabla con las capacidades de
generalizacin medias con su error obtenidas para cada subconjunto de entradas.
Cada fila de la tabla representa un mtodo de seleccin de entradas y cada
columna representa uno de los posibles subconjuntos, donde la numeracin
representa cuntas entradas han sido omitidas del conjunto inicial de entradas.
En la Tabla 4 se da un extracto de la tabla general para el problema AB
(Tabla 34 del apndice II de la Tesis Doctoral).
Tabla 4. Capacidad de generalizacin para el problema AB (BL1,TEKE).
Mtodo
1
BL1
513
TEKE 58.70.8

2
532
552

3
4
5
6
7
483
532
522
522 55.51.7
57.91.0 57.50.8 58.10.7 53.91.8 503

8
463
463

La primera columna ser la eficiencia con su error para el caso del


subconjunto con una entrada omitida, la segunda columna para el caso de dos
entradas omitidas y as sucesivamente hasta la ltima que tendr ocho entradas
omitidas (red con una sola entrada). Recordemos que AB es un problema con
ocho entradas ms la entrada irrelevante que nosotros aadimos para realizar los
experimentos (nueve en total).
A partir de estas tablas y aplicando la prueba estadstica de hiptesis test-t
que explicamos antes, se puede seleccionar para cada mtodo y problema el
subconjunto ptimo de entradas.
- 134 -

3.8. RESULTADOS EXPERIMENTALES

Por ejemplo, para el problema AB (Tabla 34 del apndice II de la Tesis


Doctoral), podemos ver para el mtodo BL1 (primera fila de la Tabla 4) que la
capacidad de generalizacin para el caso de 7 entradas omitidas es 55.51.7.
Dicho valor es mejor y distinguible del resto de eficiencias para dicho mtodo, por
lo que el subconjunto de entradas {7,9} (ver Tabla 11 del apndice II de la Tesis)
para el problema AB es el ptimo de acuerdo con los resultados del mtodo BL1.
Tambin, para AB y el mtodo TEKE (segunda fila de la Tabla 4), el
subconjunto que parece obtener mejor capacidad de generalizacin es el de una
entrada omitida con un valor 58.70.8. Pero, en realidad el subconjunto de cinco
entradas omitidas proporciona una capacidad de generalizacin de 58.10.7 y
ambos valores son indistinguibles. Por ello, de entre los dos hemos de seleccionar
como ptimo el que utiliza menor nmero de entradas, es decir el de 5 entradas
omitidas, el subconjunto {6,8,3,9} con capacidad de generalizacin de 58.10.7.
Podemos comparar a partir de las Tablas 34-48, la eficiencia de dos mtodos
distintos de seleccin de entradas en el mismo problema mediante la comparacin
de sus subconjuntos ptimos (el mejor de cada mtodo). De nuevo aplicamos la
hiptesis test-t sobre las eficiencias, y ser mejor un subconjunto si proporciona
mayor capacidad de generalizacin y en el caso de no ser distinguibles aquel que
contiene un menor nmero de entradas.
Compararemos los mtodos de dos en dos.
Por ejemplo, tomemos de nuevo el problema AB. Para el mtodo TEKE el
subconjunto ptimo de 5 entradas omitidas tiene una capacidad de generalizacin
de 58.10.7. Para el mismo problema y el mtodo BL1 la capacidad de
generalizacin del subconjunto ptimo (con 7 entradas omitidas) es 55.51.7. Los
valores de ambos porcentajes son distinguibles por lo que consideraremos que la
eficiencia del mtodo TEKE es superior que la BL1 para el problema AB.
De esta forma, comparando los mtodos dos a dos en cada problema
podemos obtener otra tabla en donde se describa si un mtodo es mejor, peor o
igual que los dems en cada problema.
En el apndice II de la Tesis Doctoral se dan los resultados en la Tabla 57
de todas las comparaciones entre los mtodos para todos los problemas.
As comparemos la eficiencia de un mtodo con la de otro he iremos
anotando los problemas en los que el primer mtodo es mejor que en el segundo,
los problemas en los que es peor y los problemas en los que es igual (no son
distinguibles).

- 135 -

3.8. RESULTADOS EXPERIMENTALES

Veamos algn ejemplo extrado de la Tabla 57 del apndice II de la Tesis


para el caso de los mtodos BA 0.5, BA 0.6 y SH. En la Tabla 5 (extracto de la
57), tenemos la comparacin de la eficiencia proporcionada por tres mtodos
diferentes: BA 0.5 (BA con el valor de =0.5), BA 0.6 (BA con el valor de =0.6)
y el mtodo SCH.
Tabla 5. Comparacin de eficiencias entre mtodos BA 0.5, BA 0.6 y SCH.
Mtodo BA 0.5
BA 0.6

Mejor BA 0.5:
Iguales:
Peor BA 0.5:

HE, VO
AB, BL, BN, BU, CR, D1, GL, LE, M1, M2, M3, PI, WD

SCH

Mejor BA 0.5:
Iguales:
Peor BA 0.5:

BL, BN, CR, D1, GL, HE, M1, M3, PI, VO


M2
AB, BU, LE, WD

Una forma de obtener una conclusin sobre la eficiencia general relativa de


los mtodos, consiste en contar el nmero de problemas en el que funciona mejor
un determinado mtodo. Por ejemplo, en la Tabla 5, se presenta la comparacin
del mtodo BA 0.5 con dos mtodos BA 0.6 y SCH. Se puede observar que el
mtodo BA 0.5, obtuvo una eficiencia mejor que el de SCH en 10 problemas (BL,
BN, CR, D1, GL, HE, M1, M3, PI, VO), la eficiencia fue la misma en 1 problema
(M2) y fue mejor para SCH en 4 problemas (AB, BU, LE, WD). Podemos
concluir que la eficiencia general de BA 0.5 es superior a la de SCH ya que BA
0.5 funciona mejor en un nmero bastante superior de problemas.
De igual forma, si comparamos las eficiencias entre los mtodos BA 0.5 y
BA 0.6, vemos que la eficiencia del primero es ligeramente superior al segundo ya
que en dos problemas funciona mejor y en el resto los mtodos funcionan igual.
Siguiendo esta metodologa, con los resultados de la Tabla 57 del apndice
II de la Tesis, se puede llegar a una ordenacin aproximada de todos los mtodos
de acuerdo con su eficiencia. A continuacin mostramos la ordenacin que hemos
obtenido a partir de dicha tabla.
UTA > GD_DS = TEKA > BL2 > DEV > TEKB = DER2 = MAO > CLO > BL1 =
=BOW = YOU = BA 0.5 > RLF > BA 0.7 = BA 0.9 = BA 1 > BA 0.6 =BA 0.8 =SET>
>PRI = SAN > CIB = TEKE > CHI > TEK > TEKC > FUZ > DER3 > SCH > LEE

Hemos distinguido en verde los mtodos basados en el anlisis del conjunto


de entrenamiento (ACE), y en azul los basados en el anlisis de la red entrenada
(ARNMF).

- 136 -

3.8. RESULTADOS EXPERIMENTALES

Con un simple vistazo se puede concluir fcilmente que la variabilidad en


las eficiencias de los mtodos basados en la red entrenada (ARNMF) es superior.
Tambin se observa, que la mayora de los mtodos ACE se agrupan desde
el centro a la parte ms baja de la ordenacin, por lo que podemos concluir que
este tipo de mtodos tiene una eficiencia inferior que los mejores mtodos de
ARNMF.
Por ello, podemos asegurar que los mtodos ACE son menos apropiados
para seleccionar las entradas de una red neuronal.
Sin embargo, existe una excepcin, el mtodo GD_DS basado en la
utilizacin de la Distancia GD y situado en el segundo lugar de la clasificacin.
Si consideramos el coste computacional de los mtodos, vemos que los
mtodos ACE tienen un coste muy inferior a los de los mtodos ARNMF, ya que
estos ltimos requieren el entrenamiento previo de al menos una red con todas las
entradas candidatas.
Si sopesados ambos factores, eficiencia y coste computacional, podemos
considerar que el mtodo GD_DS es posiblemente el ms interesante y apropiado.
Sin embargo, dicho mtodo presenta un problema, para poder ser aplicado,
la matriz de transinformacin debe ser no singular puesto que tenemos que
calcular su inversa.
En nuestros experimentos hemos encontrado matrices singulares y el
mtodo no fue aplicable en 3 de los 15 problemas. En dicho caso, la mejor
alternativa sera la utilizacin del mtodo UTA asumiendo un mayor coste
computacional.
Anlisis de los mtodos ARNMF con y sin WEIGHT-DECAY.
Por otro lado, en el caso de los mtodos de tipo ARNMF tambin se estudi
el efecto de la introduccin de weight-decay. En nuestros experimentos,
utilizaremos 17 mtodos del tipo ARNMF, en los cuales se ha introducido el
trmino de regulacin de weight-decay durante el entrenamiento de la red. Se
obtuvieron resultados en ocho problemas diferentes: BN, BU, CR, GL, HE, PI,
VO y WD.
El primer paso fue introducir en el proceso de entrenamiento de las redes
iniciales, Backpropagation con una funcin de error modificada que incluya el
trmino de regularizacin, tal y como explicamos en el apartado 3.6.

- 137 -

3.8. RESULTADOS EXPERIMENTALES

Se entrenaron 10 redes diferentes (con diferente inicializacin de los datos y


pesos), obteniendo 10 medidas de relevancia para cada entrada y mtodo y se
calculo como medida final la media de las mismas.
El parmetro de weight-decay, se determin por un procedimiento de
prueba y error escogiendo el ms adecuado en cada caso.
En los resultados experimentales para distinguir entre usar o no weightdecay, denotaremos a los mtodos en los que usemos weight-decay con su nombre
y la cadena & WD.
Nuestro primer objetivo fue analizar s el uso de weight-decay disminuye las
diferencias existentes entre las ordenaciones de los diferentes mtodos para un
cierto problema. La hiptesis parece razonable ya que el objetivo de weight-decay
es podar pesos.
En la Tabla 6, contamos primero el nmero total de subconjuntos de cada
base de datos para los 17 mtodos. Para ello, multiplicamos el nmero de entradas
de la base de datos menos una por el nmero de mtodos. Dicho resultado aparece
en la tercera columna de la Tabla 6 (etiquetado como N TOTAL). Despus,
contamos el nmero de diferentes subconjuntos de cada base de datos en los dos
casos, 17 mtodos ARNMF y 17 mtodos ARNMF & WD. Los resultados se
encuentran en la primera y la segunda columnas respectivamente y representan el
porcentaje de subconjuntos diferentes con respecto del nmero total de ellos. En
la Tabla 6, hemos sombreado los mtodos que proporcionan un menor nmero de
subconjuntos diferentes para cada base de datos.
Table 6. Porcentaje de subconjuntos de entradas distintos de cada problema.
MTODOS
BANDS
BUPA
CREDIT
GLASS
HEART
PIMA
VOTING
WDBC

ARNMF
49.5%
30.2%
53.8%
41.2%
57.0%
31.6%
58.8%
47.3%

ARNMF& WD N TOTAL
55.7%
663
40.6%
96
47.9%
240
33.1%
160
41.2%
221
32.4%
136
40.8%
272
53.9%
510

En la Tabla 6 vemos que el resultado depende de la base de datos. Por


ejemplo, para los problemas CR, GL, HE y VO el uso de weight-decay hace que
las ordenaciones de los mtodos se parezcan ms (menos subconjuntos
diferentes). Con BN, BU y WD el resultado es el contrario.

- 138 -

3.8. RESULTADOS EXPERIMENTALES

Veamos ahora cules son las ordenaciones de las entradas para el caso de
usar weight-decay. Aplicando la misma metodologa que hemos seguido en los
mtodos ARNMF sin weight-decay, obtendremos para cada problema y mtodo
de seleccin un vector con la ordenacin por importancia de las entradas
candidatas.
En el apndice II de la Tesis Doctoral, mostramos en las Tablas 26-33 para
cada problema las ordenaciones para los diferentes mtodos ARNMF & WD.
A partir de estas ordenaciones, obtenemos de nuevo los subconjuntos de
entradas y medimos la capacidad de generalizacin de los mismos.
En el apndice II de la Tesis Doctoral en las Tablas 49-56, se encuentran
para cada problema las eficiencias medias de todos los subconjuntos, para los
diferentes mtodos ARNMF & WD.
Tenemos pues las eficiencias tanto para los 17 mtodos ARNMF, como para
los 17 mtodos ARNMF & WD. En la Tabla 7 reflejamos los resultados para los 8
problemas estudiados.
Para cada fila de la Tabla 7 tenemos los resultados de un mtodo seguidos
de los resultados del mismo mtodo con el uso de weight-decay. Por ejemplo, las
dos primeras filas representan el mtodo BL1 y el mismo mtodo con weightdecay BL1&WD respectivamente.
En las columnas, hay ocho problemas diferentes: BN, BU, CR, GL, HE, PI,
VO y WD y para cada uno tenemos dos columnas. De dichas columnas la primera
(encabezada por %) representa la capacidad de generalizacin del subconjunto
ptimo (porcentaje de correcta clasificacin), y la segunda (encabezada por N) el
nmero de entradas que contiene dicho subconjunto.
Los subconjuntos ptimos para el caso de weight-decay se obtuvieron de la
misma forma que en el resto de mtodos: a partir de las Tablas 49-56, y aplicando
la prueba estadstica de hiptesis test-t para determinar cuando eran distinguibles
los resultados.
De nuevo, para analizar los resultados de qu mtodos son mejores hay que
analizar si las eficiencias son o no distinguibles, y en caso de no serlo, seleccionar
el de menor nmero de entradas.
Con los sombreados hemos tratado de mostrar las diferencias entre los
resultados de un mismo mtodo con y sin la utilizacin de weight-decay, el mejor
resultado se encuentra en una celda sombreada.

- 139 -

3.8. RESULTADOS EXPERIMENTALES

Tabla 7. Eficiencias de 17 mtodos ARNMF con y sin weight-decay.


BN

BU

CR

GL

MTODO

BL1
BL1 & WD
BL2
BL2 & WD
CLO
CLO & WD
PRI
PRI & WD
DEV
DEV & WD
LEE
LEE & WD
TEK
TEK & WD
SAN
SAN & WD
TEKA
TEKA & WD
TEKB
TEKB & WD
DER2
DER2 & WD
DER3
DER3 & WD
MAO
MAO & WD
UTA
UTA & WD
CIB
CIB & WD
TEKE
TEKE & WD
YOU
YOU & WD

66.61.2
68.61.0
70.60.7
68.61.0
66.41.3
68.61.0
66.61.2
68.61.0
69.40.5
68.61.0
64.50.8
71.60.7
67.91.1
68.20.9
67.40.9
68.61.0
69.41.8
72.00.9
69.00.6
68.61.0
67.20.5
69.81.1
68.90.3
74.01.4
73.70.5
70.71.5
73.11.0
72.530.12
73.70.5
74.60.5
----73.61.0
70.10.9

18
12
5
12
15
12
18
12
6
12
22
24
10
15
21
12
4
6
6
12
6
2
3
29
8
4
4
2
8
6
--5
14

69.50.2
652
67.41.6
672
69.50.2
652
69.50.2
652
69.50.2
67.41.6
60.11.3
69.50.2
69.10.3
60.11.3
69.50.2
652
69.50.2
672
67.41.6
672
67.41.6
672
63.51.7
692
69.10.3
60.60.8
69.50.2
652
69.10.3
63.51.7
63.11.2
68.30.4
-----

5
5
4
6
5
5
5
5
5
4
6
5
6
6
5
5
5
6
4
6
4
6
6
6
6
4
5
5
6
6
5
6
---

880
880
89.40.2
880
880
880
880
880
880
880
76.00.4
76.70.5
880
880
880
880
89.30.2
880
89.050.16
880
88.250.08
880
88.00.3
880
88.00.4
880
88.300.13
880
87.700.17
87.90.4
----88.30.3
880

1
1
8
1
1
1
1
1
1
1
12
3
1
1
1
1
9
1
10
1
5
1
14
1
14
2
6
1
12
12
--11
1

603
603
603
603
603
603
603
603
603
603
41.91.5
524
563
603
603
603
603
603
563
603
563
563
43.61.3
49.91.0
603
603
603
603
543
603
543
603
-----

1
1
1
1
1
1
1
1
1
1
6
10
2
1
1
1
1
1
2
1
2
2
3
3
1
1
1
1
2
1
4
1
---

- 140 -

3.8. RESULTADOS EXPERIMENTALES

Tabla 7. Eficiencias de 17 mtodos ARNMF con y sin weight-decay


(continuacin).
HE

PI

VO

WD

MTODO

BL1
BL1 & WD
BL2
BL2 & WD
CLO
CLO & WD
PRI
PRI & WD
DEV
DEV & WD
LEE
LEE & WD
TEK
TEK & WD
SAN
SAN & WD
TEKA
TEKA & WD
TEKB
TEKB & WD
DER2
DER2 & WD
DER3
DER3 & WD
MAO
MAO & WD
UTA
UTA & WD
CIB
CIB & WD
TEKE
TEKE & WD
YOU
YOU & WD

79.11.0
79.11.0
81.30.8
79.11.0
802
79.11.0
79.11.0
79.11.0
81.30.8
79.11.0
76.91.8
722
79.90.8
80.80.3
783
79.11.0
81.30.8
79.11.0
79.41.8
79.11.0
82.90.5
773
74.80.5
723
79.31.1
76.30.6
763
76.40.5
79.31.1
773
76.20.5
78.70.5
79.90.8
77.10.7

8
8
10
8
6
8
8
8
10
8
11
12
5
11
7
8
10
8
5
8
5
5
5
10
8
12
5
2
8
5
7
11
5
6

77.00.2
77.00.2
77.00.3
77.00.2
77.00.2
77.00.2
77.00.2
77.00.2
77.00.3
77.00.2
69.70.7
70.80.9
76.160.18
77.00.2
76.760.15
77.00.2
77.00.3
77.320.18
77.00.3
77.00.2
77.00.2
77.00.2
76.30.3
78.50.4
76.160.18
75.520.10
77.320.18
77.320.18
76.160.17
77.00.2
70.80.9
75.760.14
76.520.12
77.320.18

5
5
3
5
5
5
5
5
3
5
7
4
6
5
6
5
3
3
3
5
5
5
8
8
6
3
3
3
5
5
5
2
5
3

93.11.6
95.60.5
95.90.2
95.60.5
94.70.4
95.60.5
93.11.6
95.60.5
95.90.2
95.60.5
92.10.4
92.20.6
94.90.3
940
93.11.6
95.60.5
95.90.2
95.60.5
95.00.3
95.60.5
95.400.16
95.60.5
92.31.5
93.40.5
95.500.17
95.20.3
960
95.60.5
95.500.17
95.70.3
93.70.2
940
95.500.17
95.60.3

9
6
12
6
10
6
9
6
12
6
11
12
16
3
9
6
12
6
9
6
6
6
13
9
6
7
5
6
7
5
16
3
7
7

99.630.17
99.630.17
97.71.8
99.630.17
99.630.17
99.630.17
99.630.17
99.630.17
99.250.13
99.630.17
98.40.3
98.20.4
99.500.18
99.380.16
99.630.17
99.630.17
99.130.17
99.630.17
99.630.17
99.630.17
98.940.10
98.630.16
98.40.5
99.310.06
99.000.10
99.000.10
98.940.16
99.380.16
99.250.13
99.250.13
99.500.08
98.500.19
99.500.15
923

12
12
11
12
12
12
12
12
17
12
21
25
19
18
12
12
9
12
12
12
10
16
27
26
9
9
11
23
18
18
29
21
20
18

- 141 -

3.8. RESULTADOS EXPERIMENTALES

No hemos sombreado los casos en los que las eficiencias son


indistinguibles, lo cual supone que las capacidades de generalizacin son
indistinguibles y adems el nmero de entradas es el mismo.
Los criterios para afirmar que una eficiencia es mejor que otra son los
mismo de antes, primero se consideran los porcentajes y en el caso de que sean
indistinguibles, el nmero de entradas.
Por ejemplo, para el problema BN en las celdas de BL1, podemos encontrar
una eficiencia de 66.61.2 con N=18, y en las celdas de BL1&WD 68.61.0 con
N=12. Los porcentajes son distinguibles y la eficiencia con weight-decay es
superior, por lo que dicha celda est sombreada.
Otro ejemplo, sera el caso de los resultados del mtodo de TEKA para el
problema BN. En la fila TEKA tenemos una eficiencia de 69.41.8 con N=4, y en
la fila TEKA&WD de 72.00.9 con N=6. En este caso, los porcentajes son
indistinguibles (la diferencia no es significativa), por lo que observando los
nmeros de entradas, el de TEKA sin weight-decay es menor y consideramos que
su eficiencia ha sido superior, por lo cual lo sombreamos.
A primera vista, en la Tabla 7 no se puede observar una clara mejora por la
utilizacin de weight-decay en combinacin con los mtodos de seleccin de
entradas. Los resultados parecen depender en gran medida del mtodo e incluso
del problema concreto. Por ejemplo, para el caso de CIB hay una mejora en cinco
de un total de ocho problemas y un empeoramiento en uno. En este caso el uso de
weight-decay ha aumentado en general la eficiencia.
Sin embargo, para el mtodo DER2 el uso de weight-decay empeor la
situacin: en cuatro problemas fue peor y solo en uno mejor, en el resto
indistinguible.
Este hecho supone ya un primer motivo en contra de la utilizacin de
weight-decay, porque no hay una mejora clara de la eficiencia y mediante su uso
tendremos la complejidad adicional de determinar el parmetro , mediante un
procedimiento de prueba y error.
Analizando ms detenidamente los resultados, podemos
conclusiones ms interesantes sobre lo que realmente ocurre.

obtener

En la Tabla 8 hemos representado los mtodos ordenados en funcin de su


eficiencia. En la primera fila tenemos el mtodo UTA (el ms eficiente), y en la
ltima LEE (el menos eficiente). En las columnas se incluye el nmero de
problemas en los que el mtodo de seleccin de entradas ha funcionado mejor,

- 142 -

3.8. RESULTADOS EXPERIMENTALES

igual o peor mediante la incorporacin de weight-decay como algoritmo de


aprendizaje para el entrenamiento de la red a analizar.
Recordemos que para los mtodos de seleccin de entradas ARNMF
tenamos la siguiente ordenacin de los mismos segn su eficiencia.
UTA > TEKA > BL2 > DEV > TEKB = DER2 = MAO > CLO > BL1 =
=YOU >PRI = SAN > CIB = TEKE > TEK > DER3 >LEE

En la Tabla 8 hemos sombreado la celda (o celdas) de cada fila en donde el


nmero de problemas es el mayor.
Tabla 8. Comparacin de eficiencias con y sin WD, nmero de problemas.

UTA
TEKA
BL2
DEV
TEKB
DER2
MAO
CLO
BL1
YOU
PRI
SAN
CIB
TEKE
TEK
DER3
LEE

Mejor
Peor
IGUAL
con WD
con WD
2
2
4
2
2
4
2
1
5
1
3
4
3
0
5
1
3
4
1
2
5
2
4
2
2
5
1
3
1
2
2
5
1
4
2
2
5
2
1
5
0
1
3
1
4
7
0
1
4
0
4

Podemos ver que para los primeros mtodos, UTA, TEKA, BL2, DEV,
TEKB, DER2 y MAO, la utilizacin de weight-decay provoca un deterioro en la
eficiencia. En los mtodos CLO, BL1 y PRI la influencia de usar weight-decay no
es apreciable. Por ltimo, en los mtodos SAN, CIB, TEKE y DER3 (los de peor
eficiencia) hay una clara mejora mediante el uso de weight-decay.
A partir de estos resultados, parece que el uso de weight-decay mejora la
eficiencia de los peores mtodos de seleccin de entradas, deteriora la eficiencia
de los mejores mtodos y no afecta al resto, los intermedios. En este sentido, su
uso disminuye las diferencias en la eficiencia entre los distintos mtodos. Se trata
de un resultado bastante curioso e interesante.

- 143 -

3.8. RESULTADOS EXPERIMENTALES

La situacin puede observarse de forma ms clara si obtenemos la


ordenacin de los mtodos de acuerdo con su eficiencia, comparando los mtodos
dos a dos, igual que hicimos antes. En la Tabla 58 del apndice de la Tesis
Doctoral se dan las comparaciones de cada mtodo ARNMF&WD con todos los
mtodos ARNMF.
A continuacin mostramos la ordenacin aproximada que hemos obtenido,
comparando los mtodos dos a dos, donde hemos distinguido en azul los mtodos
basados en el anlisis de la red entrenada (ARNMF) sin uso de weight-decay y en
verde los que utilizan weight-decay.

UTA > TEKA > BL2 > TEKA&WD >DEV > TEKB = DER2 = MAO =
=UTA&WD > YOU&WD = DEV&WD = SAN&WD > CLO = BL1&WD =
=BL2&WD = CLO&WD = PRI&WD = TEKB&WD > CIB&WD > BL1 =
=YOU> PRI = SAN > DER2&WD = TEK&WD > CIB = TEKE > TEKE&WD=
=DER3&WD = MAO&WD > TEK > LEE&WD > DER3 >LEE

De dicha ordenacin parece claro que la variacin de la eficiencia


disminuye con el uso de weight-decay. La primera conclusin sera que las
eficiencias de los mtodos tienden a ser ms similares con el uso de weight-decay.
En segundo lugar, podemos ver que para la mayora de los mtodos el uso
de weight-decay hace que su eficiencia se desplace hacia la zona media de la
ordenacin.
En otras palabras, la conclusin es que se deteriora la eficiencia de los
mejores mtodos y se mejora la de los peores.

- 144 -

3.9. APLICACIN A UN PROBLEMA REAL: PATOLOGA DE LA VOZ

3.9. Aplicacin a un problema real: patologa de la


voz
Revisando la bibliografa se puede ver que es bien conocido que las posibles
alteraciones sobre el aparato fonador causan cambios sobre la seal acstica de
voz. Usualmente el diagnstico de alteraciones en la voz es realizado por un
experto: este hace hablar al paciente y analiza la voz.
Esta forma de realizar el diagnstico tiene algunos inconvenientes, por
ejemplo:
El diagnstico es subjetivo, es decir, el propio estado de nimo del
experto podra influir en el diagnstico final
El diagnstico a travs de un experto suele ser muy lento, los problemas
se detectan cuando la enfermedad o patologa est ya avanzada.
Otra forma de realizar el diagnstico sera realizar un estudio a partir de las
caractersticas de la seal de voz, de la cual se pueden extraer multitud de
parmetros utilizando tcnicas de procesado digital de la seal.
Este ltimo tipo de diagnstico de patologas a partir de la seal de voz
presenta numerosas ventajas respecto a otros mtodos:
-

No es una herramienta invasiva, el paciente solo debe hablar.


Se puede construir un sistema automtico para el diagnstico.
El diagnstico es objetivo porque est basado en el valor de parmetros
acsticos.
Se reduce el coste y tiempo de diagnstico.
Puede ser til para evaluar tratamientos y procesos de rehabilitacin, usando
la medida actualizada de los parmetros acsticos para observar la evolucin.

Los parmetros acsticos definen claramente las caractersticas de la voz y


sern tiles para determinar si una voz es normal o patolgica. Incluso, se
podra distinguir entre patologas, o utilizar la informacin para la prescripcin de
tratamientos o rehabilizacin de voz.
Sin embargo, si estudiamos la bibliografa vemos que no hay un acuerdo en
cuantos, ni en qu parmetros son realmente tiles para definir de forma clara y
sencilla la seal de voz. En las referencias [41-51], podemos encontrar diferentes
algoritmos para calcular los parmetros acsticos que se usarn para distinguir
entre voces patolgicas y normales. En las referencias [52] y [53], se aplican redes
neuronales para resolver el problema. En la primera, se utiliza una red Multilayer
Feedforward y en la segunda se utiliza una red SOM.

- 145 -

3.9. APLICACIN A UN PROBLEMA REAL: PATOLOGA DE LA VOZ

En nuestras investigaciones, como describiremos ms adelante, usaremos


una red Multilayer Feedforward con una capa oculta y diferentes mtodos de
seleccin de entradas para escoger los parmetros apropiados de entrada a la red.
A diferencia de las referencias [52] y [53], veremos que nuestros resultados son
mejores, ya que escogemos algunos de los mtodos de seleccin de caractersticas
de entrada, y el nmero final de parmetros que utilizaremos es muy bajo,
obteniendo sin embargo, una eficiencia del 100%.
Durante la realizacin de nuestras investigaciones en el campo de seleccin
de entradas en redes neuronales, surgi la participacin en el proyecto CICYT
TER96-1938-C02-01 titulado: Sistemas de Evaluacin y Rehabilitacin de
Problemas de Fonacin y/o Audicin. El proyecto estaba dirigido por Dr.
Santiago Aguilera de la Universidad Politcnica de Madrid y en l participaban
varias entidades.
La Universidad Jaume I se incorpor al proyecto con el objetivo de tratar de
aplicar redes neuronales al problema de diagnstico de patologas de voz, lo cual
no estaba en principio contemplado en el proyecto inicial pero pareci interesante
incorporarlo.
Nuestra primera meta, fue tratar de aplicar redes neuronales al problema de
distinguir entre voces patolgicas y no patolgicas. Se trata de un problema de
clasificacin, para el cual utilizamos redes Multilayer Feedforward.
El primer problema que nos encontramos fue precisamente el de seleccionar
los parmetros acsticos que debamos usar como entradas de nuestra red.
Si para un experto esto ya es un problema complejo, para alguien no experto
en el tema puede resultar imposible.
Sin embargo, pensamos que podramos aplicar las tcnicas de seleccin de
entradas que estabamos estudiando en aquellos momentos, con el objetivo de
reducir el nmero de parmetros acsticos necesario para resolver el problema de
clasificacin que abordbamos.
El procedimiento que seguimos de forma resumida fue:

Utilizar redes Multilayer Feedforward para distinguir entre voces


patolgicas y normales, utilizando todos los parmetros acsticos
de los que disponamos.
Aplicar algunas de las tcnicas de seleccin de entradas, para
reducir el nmero de parmetros y ver si la eficiencia resultante
era igual o mejor que la obtenida con todos los parmetros.

- 146 -

3.9. APLICACIN A UN PROBLEMA REAL: PATOLOGA DE LA VOZ

Para abordar el problema disponamos de una base de datos comercial de la


compaa Kay Elemetrics: Disorders voice Database, Versin 1.03, Kay
Elemetrics Corp, 1994. Esta base, fue originalmente desarrollada y grabada por
The Massachusetts Eye and Ear Infirmary (MEEI) Voice and Speech
Laboratories.
Se trata de una base de datos en CDROM que contiene alrededor de 1400
ejemplos de voces de unos 700 sujetos. Los ejemplos estn obtenidos tanto de
pacientes con voces normales como con alguna patologa.
Para cada ejemplo, la base de datos contiene un total de 33 parmetros
acsticos calculados utilizando el Multi-Dimensional Voice Program (MDVP).
Los 33 parmetros acsticos son abreviados en la base de datos con los
siguientes nombres: Fo, To, Fhi, Flo, STD, PFR, Fftr, Fatr,
Tsam, Jita, Jitt, RAP, PPQ, sPPQ, vFo, ShdB, Shim,
APQ, sAPQ, vAm, NHR, VTI, SPI, FTRI, ATRI, DVB,
DSH, DUV, NVB, NSH, NUV, SEG y PER.
A continuacin damos una corta descripcin de los mismos.
Fo
To
Fhi
Flo
STD
PFR
Fftr

Frecuencia fundamental media en la vocalizacin.


Periodo, en milisegundos, del periodo glotal medio.
Frecuencia fundamental ms alta en la vocalizacin (en Hz).
Frecuencia fundamental ms baja en la vocalizacin.
Desviacin estndar de la frecuencia fundamental en la vocalizacin.
Rango de frecuencia fundamental fonatoria en semi-tonos.
Frecuencia de la ms intensa baja frecuencia de la componente de
modulacin de Fo.
Fatr Frecuencia de la ms intensa baja frecuencia de la componente de
modulacin de amplitud.
Tsam Longitud en segundos de un ejemplo de voz (dato) analizado.
Jita Jitter absoluto, da una evaluacin en microsegundos de la variabilidad de
periodo-a-periodo del periodo del pitch.
Jitt
Porcentaje jitter, da una evaluacin de la variabilidad del periodo del
pitch en porcentaje. Representa la variacin relativa de periodo a periodo
(muy a corto plazo).
RAP Perturbacin media relativa: evaluacin de la variabilidad del periodo
pitch con factor de suavizado de 3 periodos.
PPQ Cociente de la perturbacin del periodo del pitch: evaluacin en
porcentaje de la variabilidad del pitch con factor de suavizado de 5
periodos.

- 147 -

3.9. APLICACIN A UN PROBLEMA REAL: PATOLOGA DE LA VOZ

sPPQ Cociente de la perturbacin del periodo del pitch suavizado, que da una
evaluacin en porcentaje de la variabilidad a largo plazo del periodo del
pitch, con un factor de suavizado de 55 periodos. Se relaciona con la
intensidad de la frecuencia de temblor (tremor, en ingls).
vFo Variacin de la frecuencia fundamental que representa la desviacin
estndar relativa de periodo a periodo, calculada de la frecuencia
fundamental. Refleja a muy largo plazo la variacin de Fo.
ShdB Shimmer en dB, da una evaluacin de la variabilidad de periodo a periodo
de la amplitud pico a pico.
Shim Porcentaje Shimmer, evala en porcentaje la variabilidad de la amplitud
de pico a pico. Representa la variabilidad periodo a periodo relativa (a
muy corto plazo) de la amplitud pico a pico.
APQ Cociente de la perturbacin de amplitud, da una evaluacin en porcentaje
de la variabilidad de la amplitud pico a pico, con un factor de suavizado
de 11 periodos.
sAPQ Cociente de la perturbacin de amplitud suavizada: evaluacin en
porcentaje de la variabilidad a largo plazo de la amplitud pico a pico,
con un factor de suavizado de 55 periodos, se relaciona con la intensidad
de la amplitud de temblor (tremor, en ingls).
vAm Variacin del pico de amplitud, representa la desviacin estndar relativa
de periodo a periodo, calculado de pico a pico de la amplitud. Refleja a
muy largo plazo las variaciones de la amplitud.
NHR Relacin de armnicos-ruido: relacin media de la energa de las
componentes de los armnicos en el rango de 1,5-4,5 kHz, a las
componentes en el rango 70-4500 H. Evaluacin general de la presencia
de ruido en la vocalizacin.
VTI ndice de turbulencia vocal: relacin media del espectro de energa de los
armnicos de alta frecuencia, al espectro de energa de armnicos en
reas de fonacin estables, mide el nivel de energa relativa de ruido de
alta frecuencia.
SPI ndice de fonacin suave: relacin media de la energa de los armnicos
de baja a alta frecuencia. Mide el tipo de espectro en la vocalizacin.
FTRI ndice de intensidad de Fo-tremor muestra (en porcentaje) la relacin
de la magnitud de frecuencia de la componente (Fo-tremor) de
modulacin de la ms intensa baja frecuencia, a la magnitud total de
frecuencia.
ATRI ndice de la intensidad de Amplitude tremor muestra (en porcentaje) la
relacin entre la amplitud de la componente (amplitude tremor) de
modulacin-amplitud de la ms intensa baja frecuencia, y la amplitud
total.

- 148 -

3.9. APLICACIN A UN PROBLEMA REAL: PATOLOGA DE LA VOZ

DVB Grado de parada de voz, muestra (en porcentaje) la relacin de la


longitud total de la reas que representan paradas de voz en el tiempo
total del ejemplo de voz.
DSH Grado de sub-armnicos, es una estimacin relativa de los sub-armnicos
de las componentes de Fo.
DUV Grado de no-voz: evaluacin relativa de las reas de no-armnicos
(donde Fo no puede ser detectado). Considera como no-voz todas las
pausas antes y despus de reas de voz.
NVB Nmero de paradas de voz, muestra las veces que Fo es interrumpido
desde el comienzo, desde la primera parada hasta el final de la litma
rea de voz.
NSH Nmero de segmentos sub-armnicos encontrados durante el anlisis.
NUV Nmero de segmentos de no-voz detectados durante el anlisis de
autocorrelacin.
SEG Nmero total de segmentos computados durante el anlisis de
autocorrelacin MDVP.
PER Periodo pitch detectado durante la extraccin de pitch de periodo a
periodo usando MDVP.
Tambin se incluye en la base de datos otra informacin como la edad
(AGE), sexo (SEX), lenguaje nativo (NATLANG), origen racial (ORIGIN) y si el
sujeto es fumador o no (SMOKE), etc.
Nosotros hemos utilizado una red Multilayer Feedforward con una capa
oculta para implementar la aplicacin. Primero, hemos usado todos los parmetros
acsticos de la base de datos ms la edad y sexo como entradas a la red, es decir,
35 entradas.
El primer paso para entrenar la red fue eliminar aquellos ejemplos en los
cuales encontramos entradas desconocidas (parmetro cuyo valor se
desconoce). Esto se deba a que el software MDVP no haba sido capaz de
calcular dichos parmetros. La mayor parte de las entradas desconocidas se
encuentran en los parmetros FTRI, ATRI, Fftr y Fatr.
Si descartamos los ejemplos con entradas desconocidas, quedan un total de
70 registros normales y 211 patolgicos. El nmero total de ejemplo ser de 281,
lo cual representa una reduccin alta respecto el nmero inicial de 1400.
Realmente tenamos dos posibilidades a la hora de podar la base de datos.
Una seria quitar ejemplos con valores desconocidos de algn parmetro, y la otra
descartar parmetros acsticos que presentan valores desconocidos. De la segunda
forma, el nmero final de ejemplos de entrenamiento sera mayor, sin embargo, la

- 149 -

3.9. APLICACIN A UN PROBLEMA REAL: PATOLOGA DE LA VOZ

importancia de los parmetros no es conocida a priori, por lo que descartando


parmetros podramos eliminar algunos que fueran importantes en la prediccin,
por lo que, finalmente, adoptamos la primera solucin de descartar ejemplos y
conservar todos los parmetros.
En cuanto al algoritmo de entrenamiento a usar, se opt por el descrito en el
apartado (3.4) de este captulo de la Tesis Doctoral. Es un algoritmo con
eficiencia similar a Backpropagation y bastante ms rpido.
Puesto que no disponamos de muchos ejemplos para el entrenamiento, 281,
usamos la tcnica de entrenar 36 redes diferentes para medir la eficiencia. Se
realizaron 36 particiones de los datos entre conjunto de entrenamiento y test. As,
habra 8 ejemplos diferentes en cada conjunto de test (273 en cada conjunto de
entrenamiento), excepto en el ltimo donde solo habra un ejemplo en el conjunto
de test (280 en el de entrenamiento).
Despus de entrenar las redes y medir la eficiencia nos enfrentamos al
problema de reducir el nmero de entradas a la red, es decir, de seleccionar los
parmetros acsticos de tal forma que sean un nmero mnimo y suficiente para
resolver el problema.
Los mtodos de seleccin de entradas aportan ciertas ventajas, se reduce el
tamao final de la red, se reducen los datos a procesar y es posible incrementar la
capacidad de generalizacin de la red. Como hemos visto a lo largo de este
captulo, hay muchos mtodos de seleccin de entradas y en general la eficiencia
final suele depender del mtodo que usemos, y del problema al que se aplique.
En el momento que realizamos esta investigacin aun no habamos
completado el estudio de todos los mtodos. Lo que se hizo fue escoger 6 de los
mtodos que se haban estudiado en esas fechas.
Los mtodos escogidos fueron los siguientes: BL1, BL2, CLO, PRI, DEV,
TEK, todos ellos basados en el anlisis de redes entrenadas Multilayer
Feedforward (ARNMF) y todos descritos al principio de este captulo.
El entrenamiento de la red inicial se realiz usando todas las entradas. Se
entrenaron 36 redes con diferente inicializacin (de datos y de pesos).
Para la aplicacin de estos mtodos, el conjunto de datos utilizado debe
estar normalizado, ya que el rango de variabilidad de las entradas influye en las
magnitudes finales de los pesos conectados a ellas.
Para realizar la normalizacin restamos al valor de una entrada el valor
mnimo de la misma, y dividimos el resultado entre la diferencia entre el valor
- 150 -

3.9. APLICACIN A UN PROBLEMA REAL: PATOLOGA DE LA VOZ

mximo y el mnimo. Esta operacin la realizamos para todas las entradas y todos
los datos y al final obtuvimos los datos normalizados en el intervalo [0,1].
A continuacin, veremos la metodologa utilizada en nuestros experimentos.
La arquitectura de la red neuronal inicial fue: 35 entradas y 2 salidas. El
nmero de unidades ocultas se determin por procedimientos de prueba y error.
Finalmente se escogieron 6 unidades ocultas.
Las redes fueron entrenadas y testeadas obteniendo un porcentaje de
correcta clasificacin del 100%. Esto quiere decir, que la red es capaz de
distinguir perfectamente entre voces patolgicas y no patolgicas.

Entrada ms importante

Entrada menos importante

Tabla 9. Ordenacin de los parmetros acsticos por importancia.

Mtodos

BL1

BL2

CLO

PRI

DEV

TEK

FTRI
PFR
Jitt
To
NVB
NUV
ShdB
Fftr
SEX
ATRI
RAP
vAm
PPQ
NHR
sAPQ
DSH
DVB
DUV
Tsam
APQ
STD
Shim
sPPQ
VTI
vFo
Fatr
NSH
AGE
SEG
SPI
Flo
Fo
Fhi
Jita
PER

Shim
ATRI
NUV
FTRI
NVB
APQ
Fftr
RAP
ShdB
To
sPPQ
vAm
VTI
PPQ
Jitt
Tsam
vFo
DSH
NHR
PFR
NSH
SEX
sAPQ
DVB
STD
Fatr
DUV
SPI
AGE
SEG
Flo
Fo
Fhi
Jita
PER

FTRI
NVB
To
NUV
Jitt
PFR
NHR
SEX
DVB
RAP
vAm
ShdB
sAPQ
PPQ
Shim
STD
APQ
DUV
VTI
Tsam
Fftr
ATRI
DSH
sPPQ
Fatr
NSH
vFo
AGE
SEG
SPI
Flo
Fo
Fhi
Jita
PER

FTRI
PFR
Jitt
To
NVB
NUV
ShdB
Fftr
SEX
ATRI
RAP
vAm
PPQ
NHR
sAPQ
DSH
DVB
DUV
Tsam
APQ
STD
Shim
sPPQ
VTI
vFo
Fatr
NSH
AGE
SEG
SPI
Flo
Fo
Fhi
Jita
PER

NVB
ATRI
Shim
RAP
NUV
APQ
ShdB
FTRI
DSH
VTI
Tsam
vAm
To
PPQ
NHR
SEX
sPPQ
Fftr
vFo
DUV
NSH
Jitt
STD
PFR
sAPQ
DVB
Fatr
SPI
AGE
SEG
Flo
Fo
Fhi
Jita
PER

NVB
VTI
NHR
ShdB
DVB
SEX
NSH
FTRI
RAP
PPQ
Tsam
sPPQ
NUV
DSH
Jitt
vFo
PFR
APQ
ATRI
Fatr
Fftr
STD
Shim
sAPQ
DUV
To
vAm
SPI
AGE
SEG
Flo
Fo
Jita
Fhi
PER

- 151 -

3.9. APLICACIN A UN PROBLEMA REAL: PATOLOGA DE LA VOZ

El paso siguiente, fue aplicar los 6 mtodos de seleccin escogidos y


obtener las diferentes ordenaciones de la importancia de las entradas.
En la Tabla 9 damos la ordenacin de los diferentes parmetros acsticos en
orden de importancia para cada uno de los mtodos.
A partir de estas ordenaciones se pueden construir diferentes subconjuntos
por sucesiva eliminacin de una entrada. Por ejemplo, para el mtodo BL1 la
primera entrada que se elimina ser FTRI, la segunda PFR. Siguiendo este
proceso, el subconjunto de las 5 entradas ms importantes para el mtodo BL1
sera el formado por {Flo,Fo,Fhi,Jita,PER}, y el subconjunto de las
dos ms importantes para el mtodo TEK {Fhi,PER}.
Finalmente, se evaluara la eficiencia de las diferentes redes (entrenando y
testeando) usando como nueva capa de entrada los subconjuntos construidos.
En la Tabla 10, se da un extracto de los resultados de la eficiencia para los
subconjuntos formados por 6 o menos entradas. El resto de resultados no lo
reflejamos aqu porque la eficiencia para todos ello es del 100%.
Tabla 10. Eficiencia de los mtodos de seleccin aplicados.
Mtodos
N entradas en el
subconjunto final

BL1

BL2

CLO

PRI

DEV

TEK

6
5
4
3
2
1

100%
100%
100%
100%

100%
100%
100%
100%

100%
100%
100%
100%

100%
100%
100%
100%

100%
100%
100%
100%

100%
100%
100%
100%
100%

En la tabla el smbolo significa que la red no ha convergido bien con


ese subconjunto, el porcentaje obtenido en el entrenamiento era demasiado bajo
por lo que no hemos testeado el funcionamiento de dicha red.
Podemos concluir, que el sexto mtodo, TEK, da mejores resultados para
este problema concreto. Con este mtodo podemos escoger un subconjunto de 2
entradas para resolver perfectamente el problema de clasificacin entre voces
patolgicas y no patolgicas, sin que se produzca prdida de la eficiencia en la
red.

- 152 -

3.9. APLICACIN A UN PROBLEMA REAL: PATOLOGA DE LA VOZ

En otros mtodos, la entrada Jita es ms importante que la entrada Fhi,


pero segn los resultados del mtodo TEK podemos ver que Jita puede
considerarse como innecesaria, pero la entrada Fhi es necesaria.
Podemos finalmente concluir, que los parmetros acsticos Fhi y PER
son suficientes para resolver el problema de clasificacin entre voces patolgicas
y no patolgicas. La eficiencia (porcentaje de correcta clasificacin) con slo
estas dos entradas es del 100%.
Vimos al principio de este apartado que en la referencia [52] tambin se
usaba una red Multilayer Feedforward para resolver este problema. Los resultados
que se dan en dicha referencia son de un 85.8% de clasificacin correcta. La
principal razn es que los parmetros acsticos usados en la red son diferentes de
los nuestros.
En la referencia [53], s que se realiza una seleccin previa de los
parmetros acsticos a usar. Los seleccionados eran: APQ, BVD, RAM,
SPI, STD y vAm. La relacin de correcta clasificacin es del 83.3%. En
este caso las razones de la diferencia pueden ser, que tanto la red utilizada (SOM)
como los parmetros escogidos, son diferentes. En nuestras ordenaciones por
ejemplo, el parmetro APQ est entre la 6 y 20 entradas menos importantes,
BVD entre la 5 y la 26, SPI entre la 28 y 30, STD entre la 16 y la 25 y
finalmente vAm entre la 11 y 27. En general, la importancia de estos
parmetros no es demasiado buena teniendo en cuenta que trabajamos con 35
entradas.
Pensamos pues que nuestros resultados son muy buenos en comparacin
con otro tipo de tcnicas que se han aplicado.
Otro problema que se puede abordar usando la misma metodologa es el de
diagnstico mdico, es decir clasificar entre diferentes patologas.
Esto es un trabajo futuro que esperamos resolver. Nosotros pensamos que
este problema no se podr resolver bien con la base de datos de Kay Elemetrics
ya que sta contiene ms de 40 patologas diferentes y el nmero de ejemplo de
voces patolgicas es muy bajo. El problema podra resolverse de dos formas, o
restringimos el nmero de patologas, de forma que el nmero de ejemplo de las
que seleccionemos sea suficiente para resolver el problema, o simplemente
descartamos esta base de datos e intentamos obtener una propia.
La segunda opcin es muy costosa en cuanto a tiempo e infraestructura pero
pensamos que puede merecer la pena, ya que se dispondra de una herramienta
muy interesante tanto para nuestro equipo de investigacin como para otros.

- 153 -

3.9. APLICACIN A UN PROBLEMA REAL: PATOLOGA DE LA VOZ

Adems, la resolucin del problema de distincin entre diagnsticos,


proporcionara una fuerte herramienta de diagnstico mdico muy interesante para
otros campos de investigacin.

- 154 -

3.10. CONCLUSIONES

3.10. Conclusiones
En este captulo hemos presentado una revisin bastante completa de los
mtodos de seleccin de entradas basados en el anlisis de una red entrenada
Multilayer Feedforward (ARNMF), y de los mtodos basados en el anlisis del
conjunto de entrenamiento (ACE).
Tambin hemos propuesto una metodologa que permita comparar los
mtodos de seleccin de entradas, mediante la obtencin de los subconjuntos
ptimos de entradas. Hemos aplicado dicha metodologa a 26 mtodos de
seleccin de entradas, y 15 problemas de clasificacin diferentes.
El primer resultado que obtuvimos fue una ordenacin de los 26 mtodos de
acuerdo con su eficiencia como mtodos de seleccin de entradas.
A partir de dicha ordenacin, se puede concluir que la variabilidad de la
eficiencia de los mtodos de tipo ARNMF es superior a la de los mtodos ACE.
Adems, en general, la eficiencia de los ltimos puede ser considerada como
mediocre con respecto a los mejores mtodos del tipo ARNMF.
Sin embargo, hemos encontrado una excepcin en el mtodo basado en la
Distancia GD. Pensamos que este mtodo puede ser til y prometedor, porque
combina la caracterstica de un bajo coste computacional (que habitualmente
tienen los mtodos del tipo ACE), con la alta eficiencia de los mtodos de tipo
ARNMF. Hemos encontrado algunos problemas en los cuales este mtodo no ha
sido aplicable ya que la matriz de transinformacin fue singular, por ello,
pensamos que an se podra introducir alguna mejora en el mtodo para solventar
este problema. Esto podra ser un trabajo futuro a desarrollar.
Tambin, en este captulo, se ha estudiado el efecto de introducir un trmino
de regularizacin (weight-decay) en el entrenamiento de las redes para los
mtodos ARNMF. Segn la bibliografa se esperara una mejora de la eficiencia
en la tarea de seleccin de entradas. Hemos aplicado weight-decay en 17 mtodos,
y sobre 8 problemas y hemos comparado los resultados con los obtenidos para el
caso de no aplicar weight-decay.
Los resultados son que el uso de weight-decay mejora la eficiencia de los
peores mtodos, pero deteriora la eficiencia de los mejores. En dicho sentido,
disminuyen las diferencias entre las eficiencias de los mtodos de seleccin de
entradas. Por esta razn, no recomendamos la utilizacin de weight-decay para
esta tarea. En lugar de ello, se debera seleccionar uno de los mtodos de seleccin
de entradas ARNMF ms eficientes, y aplicarlo a una red neuronal entrenada con
Backpropagation.

- 155 -

3.10. CONCLUSIONES

Tambin en este captulo hemos presentado una aplicacin a un caso real de


determinacin de patologas en la voz. El problema a resolver era distinguir entre
voces normales o voces patolgicas y el nmero de entradas de la red era muy
elevado. Mediante la aplicacin de algunos de los mtodos vistos en este captulo,
conseguimos reducir a dos el nmero de entradas de la red necesarias para
resolver el problema.
Vemos pues, que este tipo de mtodos puede ser muy til en la resolucin
de problemas reales, en los que a veces la ayuda de un experto puede no resolver
el problema con eficiencia.
Los resultados de las investigaciones realizadas en este captulo han sido
publicados en varios congresos internacionales cuyas referencias se encuentran en
la bibliografa y son [31], [32], [33], [34], [35], [54], [55], [56], [57], [58], [59] y
[60].

- 156 -

3.11. BIBLIOGRAFA DEL CAPTULO

3.11. Bibliografa del Captulo


[1] Peck, C.C., Dhawan, A.P., SSME parameter model input selection using
genetic algorithms. IEEE Transactions on Aerospace and Electronic
Systems, vol. 32, no. 1, January 1996.
[2] Greene, R.A., Neural net applications in the cognitive sciences: a case
study. Journal of Microcomputer Applications, vol. 16, pp. 197-201, 1993
[3] Hammitt, A.M., Bartlett, E.B., Determining functional relationships from
trained neural networks. Mathematical Computing Modelling, vol. 22, no.
3, pp. 83-103, 1995.
[4] Peck, C.C., Dhawan, A.P., Genetic algorithm based input selection for a
neural network function approximator with applications to SSME health
monitoring. Proceedings of the 1993 IEEE International Conference on
Neural Networks, vol. 22, pp. 1115-1122, 1993.
[5] Bartlett, E.B., Self determination of input variable inportance using neural
networks. Neural, Parallel & Scientific Computations, vol. 2, pp. 103-114.
1994.
[6] Kwok, T.Y., Yeung, D.Y., Constructive neural networks: some practical
considerations. Proceedings. of the 1994 IEEE International Conference on
Neural Networks, vol. 1, pp. 198-203, 1994.
[7] Prechelt, L., A quantitative study of experimental evaluations of neural
network learning algorithms: current research practice. Neural Networks,
vol. 9, no. 3, pp. 457-462, 1996.
[8] Bishop, C., Exact calculation of the hessian matrix for the multilayer
perceptron. Neural Computation, vol. 4, pp. 494-501, 1992.
[9] Belue, L.M., Bauer, K.W., Determining input features for multilayer
perceptrons. Neurocomputing, vol. 7, no. 2, pp. 111-121, 1995.
[10] Tetko, I.V., Villa, A.E.P., Livingstone, D.J., Neural network studies. 2
Variable selection. Journal of Chemical Information and Computer
Sciences, vol. 36, no. 4, pp. 794-803, 1996.
[11] Cibas, T., Souli, F.F., Gallinari, P., Raudys, S., Variable selection with
neural networks. Neurocomputing, vol. 12, pp. 223-248, 1996.
[12] Devena, L., Automatic selection of the most relevant features to recognize
objects. Proceedings of the International Conference on Artificial Neural
Networks, vol. 2, pp. 1113-1116, 1994.
[13] El-Deredy, W., Branston, N.M., Identification of relevant features in HMR
tumor spectra using neural networks. Proceedings of the 4th International
Conference on Artificial Neural Networks, pp. 454-458, 1995.
[14] Tetko, I.V., Tanchuk, V.Y., Luik, A.I., Simple heuristic methods for input
parameter estimation in neural networks. Proceedings of the IEEE
International Conference on Neural Networks, vol. 1, pp. 376-380, 1994.
[15] Engelbrecht, AP., Cloete, I., A sensitivity analysis algorithm for pruning
feedforward neural networks. Proceedings of the International Conference
on Neural Networks, vol. 2, pp. 1274-1277, 1996.
[16] Priddy, K.L., Rogers, S.K., Ruck D.W., Tarr G.L., Kabrisky, M., Bayesian
selection of important features for feedforward neural networks.
Neurocomputing, vol. 5, no. 2&3, pp. 91-103, 1993.

- 157 -

3.11. BIBLIOGRAFA DEL CAPTULO

[17] Sano, H., Nada, A., Iwahori, Y., Ishii, N., A method of analyzing
information represented in neural networks. Proceedings of 1993
International Joint Conference on Neural Networks, pp. 2719-2722, 1993.
[18] Mao, J., Mohiuddin, K., Jain, A.K., Parsimonious network design and
feature selection through node pruning. Proceedings of the 12th IAPR
International Conference on Pattern Recognition, vol. 2, pp. 622-624, 1994.
[19] Utans, J., Moody, J., et alt, Input variable selection for neural networks:
Application to predicting the U.S. business cycle. Proceedings of
IEEE/IAFE Computational Intelligence for Financial Engineering, pp. 118122, 1995.
[20] Lee, H., Mehrotra, K., Mohan, C. Ranka, S., Selection procedures for
redundant inputs in neural networks. Proceedings of the World Congress on
Neural Networks, vol. 1, pp. 300-303, 1993.
[21] Bowles, A.: Machine learns which features to select. Proceedings of the 5th
Australian Joint Conference on Artificial Intelligence, pp. 127-132, 1992.
[22] Younes, B., Fabrice, B., A neural network based variable selector.
Proceedings of the Artificial Neural Network in Engineering, (ANNIE95),
pp. 425-430, 1995.
[23] Battiti, R., Using mutual information for selecting features in supervised
neural net learning. IEEE Transactions on Neural Networks, vol. 5, no. 4,
pp. 537-550, 1994.
[24] Chi, Jabri, Entropy based feature evaluation and selection technique.
Proceedings of 4th Australian Conference on Neural Networks, (ACNN93),
pp. 193-196, 1993.
[25] Setiono, R., Liu, H., Improving Backpropagation learning with feature
selection. Applied Intelligence: The International Journal of Artificial
Intelligence, Neural Networks, and Complex Problem-Solving Technologies,
vol. 6, no. 2, pp. 129-139, 1996.
[26] Lorenzo, Hernndez, Mndez, Attribute selection through a measurement
based on information theory.(in Spanish). 7 Conferencia. de la Asociacin
Espaola para la Inteligencia Artificial, (CAEPIA), pp. 469-478, 1997.
[27] Kira, K., Rendell, L.A., The feature selection problem: Traditional methods
and a new algorithm. Proceedings of 10th National Conference on Artificial
Intelligence, pp. 129-134, 1992.
[28] Scherf,, A new approach to feature selection. Proceedings of the 6th
Conference on Artificial Intelligence in Medicine, (AIME97), pp. 181-184,
1997.
[29] Thawonmas, R., Abe, S., Feature reduction based on analysis of fuzzy
regions. Proceedings of the 1995 International Conference on Neural
Networks, vol. 4, pp. 2130-2133, 1995.
[30] Watzel, R., Meyer-Bse, A., Meyer-Bse, U., Hilberg, H., Scheich, H.,
Identification of irrelevant features in phoneme recognition with radial
basis classifiers. Proceedings of 1994 International Symposium on
Artificial Neural Networks. pp. 507-512, 1994.
[31] Fernndez, M., Hernndez, C., Input selection by Multilayer Feedforward
trained networks. Proceedings of the 1999 IEEE International Joint
Conference on Neural Networks. pp. 1834-1839, 1999.

- 158 -

3.11. BIBLIOGRAFA DEL CAPTULO

[32] Fernndez, M., Hernndez, C., Neural networks input selection by using the
training set. Proceeding of the 1999 IEEE International Joint Conference on
Neural Networks. pp. 1189-1194, 1999.
[33] Fernndez, M., Hernndez, C., A Comparison among feature selection
methods based on trained networks. Proceedings of the 1999 IEEE Neural
Networks for Signal Processing Workshop (NNSP99), pp. 205-214, 1999.
[34] Fernndez, M., Hernndez, C., Optimal use of a trained neural network for
input selection. Proceedings of the 5th International Work Conference on
Artificial and Natural Neural Networks (IWANN99), pp. 506-515, 1999.
[35] Fernndez, M., Hernndez, C., How to select the inputs for a Multilayer
Feedforward Network by using the training set. Proceedings of the 5th
International Work Conference on Artificial and Natural Neural Networks
(IWANN99), pp. 477-486, 1999.
[36] Bos, S., Chug, E., Using weight-decay to optimize the generalization ability
of a perceptron. Proceedings of IEEE International Conference on Neural
Networks, vol. 1, pp. 241-246, 1996.
[37] Merz, C. J., Murphy, P. M., (1998). UCI repository of machine learning
databases.Disponible en:http://www.ics.uci.edu/~mlearn/MLRepository.html
[38] Montgomery, D. C.,Runger, G. C., Probabilidad y estadstica aplicadas a la
Ingeniera. McGraw-Hill, 1996.
[39] Heinke, D., Hamker, F. H., Comparing Neural Networks: a Benchmark on
Growing Neural Gas, Growing Cell Structures, and Fuzzy ARTMAP. IEEE
Transactions on Neural Networks, vol. 9, no. 6, pp. 1279-1291, November
1998.
[40] Xiao-Hu Yu, Guo-An Chen, Shi-Xin Cheng, Dynamic Learning Rate
Optimization of the Backpropagation Algorithm. IEEE Transactions on
Neural Networks, vol. 6. no. 3, pp. 669-677, 1995.
[41] Banci G., Monini S., Falaschi A., Sairo N., Vocal fold disorder evaluation
by digital speech analysis. Journal of Phonetics, vol. 14, pp. 495-499, 1986.
[42] Boyanov B., Hadjitodorov S., Teston B., Doskov D., Software system for
pathological voice analysis. LARYNX 1997, pp. 139-142, 1997.
[43] Boyanov B., Hadjitodorov S., Teston B., Doskov D., Robust hybrid
detector for pathological voice analysis. LARYNX 1997, pp. 55-58, 1997.
[44] Zhu W., Kikuchi Y., Endo Y., et al., An integrated acoustic evaluation
system of pathologic voice. Proceedings of the International Conference on
Spoken Language Processing, pp. 1983-1986, 1994.
[45] Boyanov B., Chollet G., Pathological voice analysis using cepstra, bispectra
and group delay functions. Proceedings of the International Conference on
Spoken Language Processing, pp. 1039-1042, 1992.
[46] Boyanov B., Hadjitodorov S., Ivanov T., Analysis of voiced speech by
means of bispectrum. Electronics Letters, vol. 7, no. 24, pp. 2267-2268,
1991.
[47] Kasuya H., Endo Y., Saliu S., Novel acoustic measurements of jitter and
shimmer characteristic from pathologic voice. Eurospeech 1993, pp. 19731976. Berlin 1993.
[48] Kasuya H., Ogawa Sh., Mashima K., Ebihara S., Normalized noise energy
as an acoustic measure to evaluation pathologic voice. Journal of Acoustic
Society of America, vol. 80, no. 5, pp. 1329-1334, 1986.

- 159 -

3.11. BIBLIOGRAFA DEL CAPTULO

[49] Yunik M., Boyanov B., Method for evaluation of the noise-to-harmonic
component ratios in pathological and normal voices. Acustica, vol. 70, pp.
89-91, 1990.
[50] Schoentgen J., Jitter in discriminating between normal and dysphonic
speakers. Applied stochastic models and data analysis, vol. 4, pp. 127-135,
1985.
[51] Boyanov B., Hadjitodorov S., Baudoin G., Acoustical analysis of
pathological voice. Proceedings of the Slovenian German Workshop on
Speech Analysis and Recognition, 1996.
[52] Wallen E.J., Hansen J.H.L., A screening test for speech pathology
assessment using objective quality measures, Proceedings of the
International Conference on Spoken Language Processing, pp. 776-779,
1996.
[53] Callant, D.E., Kent, R.D., et al., Self-organizing map for the classification
of normal and disordered female voices. Journal of Speech, Language, and
Hearing Research, vol. 42, no. 2, pp. 355-366, 1999.
[54] Godino-Llorente, J.I., Aguilera-Navarro, S., Hernndez-Espinosa, C.,
Fernndez-Redondo, M., Gmez-Vilda, P., On the selection of meaningful
speech parameters used by a pathologic/non Pathologic voice register
classifier. 6th European Conference on Speech Communication and
Technology (EuroSpeech'99), vol. 1, pp. 563-566, 1999.
[55] Hernndez, C., Fernndez, M., Gomez, P., Godino, J.I., Aguilera, S.,
Diagnosis of Vocal and Voice Disorders by the Speech Signal.
Proceedings of 2000 International Joint Conference on Neural Networks,
(IJCNN2000), vol. 4, pp. 253-258, 2000.
[56] Fernndez, M., Hernndez, C., On the Combination of Weight-Decay and
Input Selection Methods. Proceedings of 2000 International Joint
Conference on Neural Networks, (IJCNN2000), vol. 1, pp. 191-196, 2000.
[57] Fernndez, M., Hernndez, C., Influence of Weight-Decay Training in
Input Selection Methods, European Symposium on Artificial Neural
Networks (ESANN2000), pp.135-140, Brujas (Belgica) 2000.
[58] Hernndez, C., Fernndez, M., Gomez, P., Neural Network based Input
Selection and Diagnosis of Pathologic Voices. Neural Network World
International Scientific Journal. En prensa.
[59] Hernndez, C., Fernndez, M., On the Effect of Weight-Decay in Input
Selection. Neural Network World International Scientific Journal, vol. 10,
no. 4, pp. 575-588, Praga, Julio de 2000.
[60] Fernndez, M., Hernndez, C., Analysis of Input Selection Methods for
Multilayer Feedforward. Neural Network World International Scientific
Journal, vol. 10, no. 3, pp. 389-406, Praga, Julio de 2000.

- 160 -

3.12. APNDICE DEL CAPTULO

3.12. Apndice del Captulo


Clculo de la matriz Hesiana.
Llamamos ai y zi a las entradas y salidas en las neuronas de la capa i de la
red neuronal. Sean zj las salidas de las neuronas la capa inferior a la capa i.
El error E, se puede calcular como la suma de los errores cometidos en cada
patrn de entrada, Ep.
Si introducimos una perturbacin en el error, su expresin se puede calcular
a partir del desarrollo de Taylor de segundo orden. Las derivadas de segundo
orden de dicho desarrollo son las que constituyen la llamada matriz hesiana.
Vamos a calcular las diferentes derivadas. Supongamos una unidad i en la
misma capa que una unidad n.
2Ep

wij w nl

a i
wij

E p

a i w nl

= z j n

z l
a i

=zj

ai

+ z j zl

n
a i

E p

w nl

= zj
( n z l ) =

ai

(3.110)

= z j n f (a l ) g li + z j z l bni

Donde:
n =
g li =
bni =

E p
a n
a l
a i
n
a i

r z r an = r wrn f (a n )
r

g ii = 1;

g li = 0;


f (a n )
a i

(3.111)

ar a l = f (a r ) wlr g ri ; para la capa i :


r

E p a r
=

r a n

r wrn = f (a n ).g ni . r .wrn + f (a n ). wrn .bri


r

Para la capa de salida m de la red neuronal, podemos calcular las


expresiones anteriores. En la ecuacin (3.112) se obtiene:
sm =
bmi =

E p
a m

E p z m
E p

= f ( a m )
z m a n
z m

E

f (a m ) p
ai
z m

(3.112)

E
2 E p

= f ( a m ) p + ( f ( a m ) )2
g mi = H m g mi
z m
z m2

- 161 -

3.12. APNDICE DEL CAPTULO

En la ecuacin (3.113) se dan las expresiones de la funcin de error, la


funcin de activacin y sus derivadas.
1

Ep =

E p

(zm - tm )2 ;

z m

f (a) = f (a) (1 - f (a));

2Ep

= (zm - tm );

z m2

(3.113)

= 1;

f (a) = f (a) (1 - f (a)) (1 - 2 f (a))

Sustituyendo en la ecuacin (3.112) obtenemos:


m = ( z m - t m ) z m (1 - z m )
H m = f (a) (1 - f (a )) { (1 - 2 f (a)) ( z m - t m ) + f (a) (1 - f (a )) }

(3.114)

Clculo para una red de tres capas.


Vamos a aplicar todas las ecuaciones anteriores al caso de una red
Multilayer Feedforward de tres capas (una capa oculta).
Sean k y k dos unidades de la capa de entrada, l y l dos unidades de la capa
oculta y m y m dos unidades de la capa de salida.
Calculamos las derivadas segundas de la funcin de error para cada caso.
Caso 1.- Ambos pesos se encuentran entre la capa de salida y la oculta.
2Ep
wml wm 'l '

= z l m' f (a l ' ) g l 'm + z l z l ' bm 'm = 0 + z l z l ' H m m'm

H m = f (a m )

E p
z m

+ ( f (a m ) ) 2

(3.115)

2Ep
z m2

Donde la expresin de Hm se puede calcular segn la ecuacin (3.114) para


el caso de la funcin de activacin sigmoide y el error cuadrtico medio.

Caso 2.- Ambos pesos se encuentran entre la capa oculta y la de entrada.


2E p
wlk wl 'k '

bl 'l =

s l '
a l

(3.116)

= z k s l ' f ( a k ' ) g k 'l + z k z k ' bl 'l = 0 + z k z k ' bl 'l


= d ll ' f ( a l ' )

s m wml ' + f (al ' ) a s m wml '


m

- 162 -

3.12. APNDICE DEL CAPTULO

Donde:

a l
=

E p

m a m

wml ' am a
m

E p

l a m

m wml ' = wml ' am = wml ' a


l

(3.117)

wml ' f (al ) wml Hm


m

La derivada resulta:
2Ep
wlk wl 'k '

= z k .z k ' ll ' . f (a l ' ). m .w ml ' + f (a l ' ). f (a l ). wml ' .wml .H m

m
m

(3.118)

Caso 3.- Cuando un peso se encuentran entre la capa de salida y la oculta y


el otro entre la capa oculta y la de entrada.
2Ep
wlk wml '

= z k . m . f (a l ' ).g l 'l + z k .z l ' .bml = z k . f (a l ).{ m . l 'l + z l ' .wml .H m }

- 163 -

(3.119)

Captulo 4

ALGORITMOS DE APRENDIZAJE PARA LA SELECCIN


DEL NMERO DE UNIDADES DE LA CAPA OCULTA DE LA
RED DURANTE EL PROCESO DE APRENDIZAJE
4.1. Descripcin del Problema
4.2. Descripcin de los diferentes mtodos
4.2.1. Fase constructiva: determinacin
de nuevos pesos
4.2.2. Fase de podado: eleccin de la
neurona a podar
4.3. Metodologa
4.4. Desarrollo Experimental
4.5. Conclusiones
4.6. Bibliografa del Captulo
4.7. Apndice del Captulo

4.1. Descripcin del Problema


A pesar de los muchos avances conseguidos para que las redes neuronales
sean de aplicabilidad en problemas reales, todava quedan algunas cuestiones que
deben contestarse.
Una de las cuestiones abiertas reside en la determinacin del tamao de la
red ms apropiado para resolver una tarea especfica, en concreto, qu nmero de
neuronas debe usarse en la capa oculta para el caso de la arquitectura Multilayer
Feedforward. La dificultad en la eleccin del tamao reside principalmente en el
hecho de que tanto redes grandes (con gran nmero de unidades ocultas), como
pequeas presentan importantes ventajas.

- 165 -

4.1. DESCRIPCIN DEL PROBLEMA

Para redes neuronales de gran tamao en las que tenemos un gran nmero
de parmetros (uniones entre las neuronas) que determinar, el aprendizaje es ms
rpido y los mnimos locales son ms fciles de evitar. En particular, en la
referencia [1] se presenta un estudio terico en el cual se prob que cuando el
nmero de unidades ocultas iguala el nmero de ejemplos de entrenamiento
menos uno, se garantiza que la superficie de error de Backpropagation no tiene
mnimos locales. Tambin se observa para redes grandes, que la complejidad de
los contornos de decisin de la red, aumentan con el tamao de la misma y as
esta poseer un cierto grado de tolerancia a fallos.
Por otro lado, se ha demostrado tanto terica, como experimentalmente que
las redes con pocos parmetros, poseen mejor capacidad de generalizacin, lo cual
es una caracterstica fundamental en este campo de Redes Neuronales. Otra
ventaja es que el conocimiento codificado en una red pequea, es ms fcil de
interpretar y ello facilitar la extraccin de reglas simples que describan el
comportamiento de la red.
En general, una red neuronal demasiado pequea no podr aprender el
problema bien, y una red neuronal demasiado grande tendr como consecuencia el
fenmeno de sobremodelado (overfitting) y poseer una mala capacidad de
generalizacin.
Esto ltimo, se puede entender fcilmente mediante una analoga al
problema de aproximacin de curvas mediante polinomios. Consideremos unos
datos generados a partir de una funcin suave en la que se introduce ruido.
Normalmente, con un polinomio con pocos coeficientes, ser imposible capturar
la funcin a partir de los datos, mientras que con un polinomio con demasiados
coeficientes se aproximar tanto la funcin como el ruido, tendremos una pobre
representacin de la funcin. Para un nmero ptimo de coeficientes, el polinomio
nos dar la mejor representacin de la funcin y las mejores predicciones para
nuevos datos. Algo similar se puede considerar que ocurre con el nmero de
unidades ocultas en la red Multilayer Feedforward.
En la prctica, en la mayora de las ocasiones, la seleccin del nmero
correcto de unidades ocultas se realiza mediante un proceso de prueba y error. Se
prueban varias estructuras con diferente nmero de neuronas ocultas y se
selecciona la ms idnea desde el punto de vista de la capacidad de
generalizacin. Es decir, se busca la red que ofrece mejor eficiencia, medida sta
en el punto de convergencia de la red, el cual se obtiene utilizando tcnicas de
cros-validacin.
Este procedimiento presenta el serio inconveniente de requerir una gran
cantidad de tiempo, puesto que se deben de entrenar varias redes neuronales para
- 166 -

4.1. DESCRIPCIN DEL PROBLEMA

encontrar la arquitectura ptima. Adems, se trata de un procedimiento


subptimo, ya que el nmero de unidades ocultas que se prueba es finito y es
posible que no se encuentre la arquitectura ms ptima entre las probadas.
As, para resolver el problema de encontrar el tamao correcto se han
propuesto en la bibliografa varios mtodos, dos de ellos de tipo incremental.
Podemos realizar primero una clasificacin general de los mismos:

Podan neuronas

Segn qu podan Podan pesos

De podado

Quitan pesos durante entrenamiento


Mtodos
Segn cundo podan

Podan
despus del entrenamientoy reentrenan

Incrementales

Constructivos que aaden neuronas durante aprendizaje

que usan conj. entrenamiento para calcular Nhidden

El primero de los mtodos incremental se denomina de podado (pruning).


El funcionamiento es el siguiente: comienza con una red de tamao
suficientemente grande y va eliminando los pesos o neuronas ocultas innecesarias.
En cierto modo, se trata de combinar las ventajas de entrenar una red neuronal
grande, con aquellas ventajas que presentan las redes pequeas que se intentan
conseguir despus de la fase de podado.
Entre los algoritmos de podado se puede establecer varias divisiones.
La primera se hace en funcin de lo que se poda. As, tendremos mtodos
que podan neuronas y mtodos que podan pesos de la estructura. Esto ltimo, la
poda de pesos, se puede considerar diferente a la poda de unidades, puesto que
para eliminar una neurona es necesario que se eliminen todos los pesos de la
misma.
Otra clasificacin diferente de procedimientos de podado se establece entre
mtodos que reducen el exceso de pesos durante el propio proceso de aprendizaje,
y algoritmos en los que los procesos de entrenamiento y de podado son llevados a
cabo en dos fases totalmente distintas. El primero, se realiza normalmente
mediante la introduccin en la funcin de error de penaltis o trminos que
penalizan el exceso de estructura (mtodos de regularizacin). En el segundo, el
podado se realiza despus del proceso de entrenamiento. Esta alternativa no
interfiere con el proceso de aprendizaje pero normalmente requiere un
reentrenamiento de la red despus del proceso de podado.

- 167 -

4.1. DESCRIPCIN DEL PROBLEMA

El segundo mtodo incremental al que nos referamos, consiste en partir de


una red con una estructura pequea y gradualmente ir aadiendo neuronas hasta
que se finaliza el proceso de aprendizaje. A este tipo de algoritmos se les suele
denominar algoritmos constructivos.
Otra alternativa para el mtodo anterior son los algoritmos constructivos que
parten del conjunto de entrenamiento y a partir de l, determinan el nmero de
unidades ocultas como si se tratase de una inicializacin de la red. De hecho, en
ellos, a la vez que se determina el nmero de neuronas ocultas tambin se suele
determinar un valor inicial para los pesos de la red. Normalmente, estos mtodos
se basan en encontrar hiperplanos de decisin a partir del conjunto de
entrenamiento, o usar un conjunto de prototipos extrados a partir del conjunto de
entrenamiento. En este captulo no consideraremos este tipo de procedimientos al
considerarlos ms bien como mtodos de inicializacin de la red. En el captulo 6
se han descrito y utilizado dos de estos mtodos para el proceso de inicializacin
de pesos de la red.
En la referencia [2], se explica que los algoritmos constructivos que parten
de una red pequea y aaden neuronas poseen una serie de ventajas sobre los
procedimientos de podado. Las ventajas son las siguientes:

Para los algoritmos constructivos es evidente especificar el tamao de la


red inicial: la ms pequea, con slo una neurona oculta. Sin embargo,
para los procedimientos de podado uno no sabe en la prctica como de
grande (nmero de neuronas ocultas) debe ser la red inicial y adems el
tamao suele depender del problema a resolver.

Los algoritmos constructivos siempre buscan primero soluciones de redes


pequeas, y por lo tanto son computacionalmente ms econmicos que los
algoritmos de podado.

Es posible encontrar redes de diferentes tamaos capaces de representar


bien el problema. Los algoritmos constructivos encontrarn una red de
tamao menor ya que buscan primero redes de tamao pequeo.

Los mtodos de podado normalmente miden el cambio en el error cuando


una unidad oculta o peso es eliminado. Sin embargo, tales cambios slo
pueden ser aproximados, y por lo tanto puede que se introduzcan grandes
errores, especialmente cuando el nmero de unidades a podar aumenta.

Debido a estas razones el presente captulo se centra en algoritmos


constructivos y no en procedimientos de podado. Sin embargo, como veremos

- 168 -

4.1. DESCRIPCIN DEL PROBLEMA

ms adelante los procedimientos de podado tambin son de utilidad dentro del


campo de algoritmos constructivos.
El primer algoritmo constructivo propuesto en la bibliografa, fue propuesto
por Ash [3]. Sin embargo, existe una versin posterior de Hirose y otros en [4],
que con pocas modificaciones ha sido utilizada en la mayora de los trabajos.
En la figura 1 hemos representado el algoritmo de Hirose. Veamos cul es
su funcionamiento.
EMPEZAR
Salvar los pesos
a disco.

Generar la red
con un numero
pequeo de unidades
ocultas.

Eliminar una unidad


oculta.

Adaptar los pesos


mediante Backpropagation.

Adaptar los pesos


mediante Backpropagation.

Converge?

SI

SI

Converge?
NO

NO
NO

Nmero de adaptaciones de pesos


multiplo de cien.

Nmero de adaptaciones de pesos


multiplo de cien.

SI

SI
SI

NO

ECM decrece en
ms de un 1%?

ECM decrece en
ms de un 1%?

SI

NO
NO

Leer datos de pesos de


disco.

Aadir una nueva


unidad oculta.

FIN

Fig.1. Algoritmo constructivo de Hirose.

El algoritmo se puede dividir en dos fases, una de crecimiento de la red y


otra de podado. Durante la fase de crecimiento, se inicializa en primer lugar la red
con un nmero pequeo de neuronas ocultas. Hirose us una unidad oculta en
- 169 -

4.1. DESCRIPCIN DEL PROBLEMA

todos sus experimentos. Despus se entrena dicha arquitectura mediante el


algoritmo de Backpropagation y cada cien pocas se chequea el decremento del
error cuadrtico medio. Si el error ha decrecido ms de un uno por cien no se
realiza nada y se contina con el entrenamiento. Por el contrario, si se ha llegado a
un mnimo local y el error no decrece ms de un uno por cien, se aade una nueva
unidad oculta. Los pesos de esta unidad oculta se inicializarn aleatoriamente.
Esta situacin se repite hasta que la red neuronal converge. El criterio de
convergencia utilizado por Hirose se basa en un umbral especificado para el error
cuadrtico medio, calculado en el conjunto de entrenamiento. Cuando se
sobrepasa el umbral se considera que la red neuronal ha convergido.
Una vez que la red ha convergido, se pasa a la fase de podado. En esta fase,
se trata de disminuir el nmero de unidades ocultas que puede que haya crecido
excesivamente en la fase anterior. La fase se inicia guardando los datos iniciales
de los pesos en disco y eliminando una neurona oculta.
En sus experimentos, Hirose, elimina la neurona ms reciente de las
aadidas en la fase de crecimiento. Una vez que se ha eliminado la neurona se
reentrena la red mediante Backpropagation.
De nuevo, cada cien pocas, se chequea el error cuadrtico medio y si este
ha decrecido ms de un uno por cien se continua el entrenamiento. Si por el
contrario, no ha decrecido ms del uno por cien, se chequea la convergencia; si la
red ha podido converger sin deterioro del error cuadrtico medio la eliminacin de
la neurona ha tenido xito y continuamos eliminando otra. Si por el contrario, no
ha podido converger sin deterioro del error cuadrtico medio, el nmero vlido de
neuronas era el que tenamos antes de la eliminacin y recuperamos los datos
salvados en disco.
Del algoritmo bsico de Hirose descrito, ha habido distintas variantes.
Citamos aqu algunas que no hemos incluido en nuestro estudio por considerarlas
fuera de nuestros objetivos.
En primer lugar, en la referencia [5], se utiliza como algoritmo de
entrenamiento en lugar de Backpropagation el llamado RLS (Recursive Least
Squares). Tambin, en la referencia [6], se usa un algoritmo diferente para el
entrenamiento, el de Quasi-Newton. Obviamente, durante el entrenamiento se
puede usar cualquier algoritmo de entrenamiento, sin embargo, no es objeto de
esta Tesis Doctoral hacer un estudio comparativo sobre diferentes algoritmos de
aprendizaje, nosotros hemos basado nuestra investigacin en el uso de Multilayer
Feedforward con Backpropagation, motivo por el cual no se han incluido estos
algoritmos en nuestro estudio comparativo.

- 170 -

4.1. DESCRIPCIN DEL PROBLEMA

Por otra parte, en la referencia [7], se propone el siguiente procedimiento de


entrenamiento, cada vez que se aade una nueva neurona, los pesos de las
anteriores se dejan congelados (no se adaptan, en ingles weight freezing) y tan
slo se entrenan los pesos de la nueva neurona aadida. En la referencia, se
proponen funciones objetivo con las cuales poder adaptar los pesos de la nueva
neurona. Este esquema tampoco se ha implementado porque como se reconoce en
la propia referencia, es subptimo con respecto al esquema de Hirose, que adapta
los pesos de todas las neuronas. La nica razn a favor de este nuevo esquema es
que reduce considerablemente la carga computacional puesto que slo modifica
los pesos de la nueva neurona introducida.

- 171 -

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

4.2. Descripcin de los diferentes mtodos


En primer lugar, tenemos que resaltar que el algoritmo de Hirose tal y como
se describi antes, no se puede aplicar a problemas reales como los utilizados en
esta Tesis. El problema que presenta el mtodo, reside en el criterio de
convergencia que utiliza durante la fase de crecimiento de la red. Se utiliza como
criterio, el error cuadrtico medio en el conjunto de entrenamiento y se fija un
umbral de dicha magnitud para juzgar la convergencia de la red.
En la prctica, en un problema real en el que por ejemplo puede haber
solapamientos entre clases, es imposible determinar cul es el umbral apropiado
para la convergencia. De hecho, Hirose utiliz su algoritmo en problemas
artificiales en los que era posible llegar a un error cuadrtico medio cero, y por lo
tanto, s que se poda establecer un umbral pequeo.
Para solventar este problema, una idea ms apropiada es la que se sugiere en
la referencia [8], en donde se propone usar cros-validacin como criterio de
convergencia.
Por ello, nosotros hemos modificado el algoritmo de Hirose para que utilice
como criterio de convergencia cros-validacin. En la figura 2, puede observarse el
resultado.
La descripcin del algoritmo sera la siguiente. Como antes, tendremos dos
fases diferentes, la primera de crecimiento y la segunda de podado. En la fase de
crecimiento, se inicializa la red con una sola neurona oculta y se adaptan los pesos
mediante Backpropagation. Cada cien pocas se chequean ciertas magnitudes. En
primer lugar, se comprueba si el error cuadrtico medio (ECM) calculado con el
conjunto de entrenamiento ha disminuido ms de un 5%. Si es as, se contina el
proceso de entrenamiento. Si por el contrario, no ha disminuido, se supone que la
red ha convergido con ese nmero de neuronas y se aade una nueva neurona.
Despus, se comprueba si el error cuadrtico medio de cros-validacin,
ECM_cros (que se usa como criterio de convergencia) ha disminuido ms de un
5%. Si es as, se contina el proceso de aprendizaje, la introduccin de la nueva
neurona ha tenido xito en el proceso de aumentar la capacidad de generalizacin.
Si por el contrario, no es as, se concede una nueva oportunidad de aadir una
nueva neurona para ver si con ella se consigue disminuir el error cuadrtico medio
de cros-validacin, este proceso de dar una nueva oportunidad se puede llevar a
cabo hasta dos veces, si a la tercera (veces=3) no se ha conseguido decrementar el
ECM_cros se considera que ya se ha superado el tamao ptimo de la red y que
por lo tanto no merece la pena aadir ms neuronas. Comienza entonces la fase de
podado.
- 172 -

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

EMPEZAR

Seleccionar punto de
convergencia mediante
cros-validacin y guardar
pesos a disco.

Inicializar la red con


una unidad oculta.

Seleccionar una
unidad oculta a
eliminar.

Eliminar la neurona
seleccionada.
Cada 100 iteraciones

Cada 100 iteraciones

Adaptar los pesos


mediante Backpropagation.

SI

Ha decrementado
el ECM en ms
de un 5%?
NO
Aadir una unidad
oculta.

Adaptar los pesos


mediante Backpropagation.

Ha decrecido ECM
ms de un 5%?
NO

SI

Ha decrecido el ECM
de cros-validacin ms
de un 5%?

Ha aumentado el ECM
de cros-validacin al quitar
la neurona?

NO
veces= veces + 1.

Es veces = 3?

SI

NO

SI
Recuperar los pesos
anteriores guardados
en disco.

NO

SI
Seleccionar el punto de
convergencia y numero
de unidades ocultas
mediante cros-validacin

FIN

Fig.2. Algoritmo constructivo de Hirose modificado.


Antes de la fase de podado, conviene resaltar que se calcula el punto de
convergencia de la fase de crecimiento mediante cros-validacin, lo cual quiere
decir que el nmero de unidades ocultas final, no es el mismo con el que se
finaliza la fase de crecimiento sino aquel valor que da el mnimo error de crosvalidacin.

- 173 -

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

En la fase de podado, lo primero que se hace, es seleccionar la unidad oculta


a eliminar. Para ello, se utiliza un cierto criterio. Nosotros estudiaremos varios
mtodos o alternativas. El siguiente paso ser eliminar la neurona seleccionada y
adaptar los pesos mediante Backpropagation. Cada cien pocas de utilizacin del
algoritmo Backpropagation, de nuevo, se chequean varios valores. En primer
lugar, se chequea si el error cuadrtico medio calculado con el conjunto de
entrenamiento ha decrecido ms de un 5%; si es as, la red todava no ha
convergido con el nmero de neuronas actual y se contina con el entrenamiento.
Si por el contrario, no ha decrecido ms de un 5%, se supone que ya ha concluido
el entrenamiento despus del ltimo podado de una neurona oculta y se pasa a
comprobar si el error cuadrtico medio de cros-validacin ha aumentado, si es as,
el ltimo podado de una neurona se considera que no ha tenido xito y se
recuperan los pesos de la red convergida antes del podado. Si por el contrario no
ha aumentado el error el proceso de podado ha tenido xito y se intenta podar una
nueva unidad oculta.
Con respecto al algoritmo original de Hirose cabe destacar que se ha
modificado para usar en todo momento cros-validacin como criterio de
convergencia. La principal razn es que ello es una medida de la capacidad de
generalizacin, se espera que el nmero de neuronas ocultas pueda ser aquel que
maximice la capacidad de generalizacin. De esta forma, el algoritmo es aplicable
a problemas reales y se eluden los problemas que presentaba el algoritmo de
Hirose original.
Por otra parte, en el nuevo algoritmo aun no hemos especificado cul es el
criterio para seleccionar la neurona a eliminar. Para ello hay varias alternativas y
se ha tratado de hallar experimentalmente cul es la ms apropiada.
Por ltimo, tampoco se ha especificado cuales son los pesos de la nueva
neurona que se incluye en cada iteracin de la fase de crecimiento. Para ello,
tambin disponemos de dos alternativas que se han evaluado experimentalmente.
Tenemos pues dos fases diferentes en nuestro algoritmo: la fase constructiva
y la fase de podado. Cada una de estas fases ser resuelta mediante alguno de los
mtodos que describimos a continuacin.
Experimentalmente, hemos probado todas las combinaciones posibles entre
los mtodos de ambas fases.

- 174 -

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

4.2.1. Fase constructiva: determinacin de nuevos pesos


Para realizar esta fase disponemos de dos mtodos diferentes en la
bibliografa.
MTODO DE HIROSE
Segn el algoritmo original de Hirose, los nuevos pesos de las neuronas que
se aaden en la fase constructiva se inicializan aleatoriamente dentro de un
intervalo pequeo centrado en cero.
MTODO DE KHORASANI
En las referencias [9] y [10] Khorasani y Weng proponen otra alternativa de
inicializacin de los pesos de las neuronas que se aaden en la fase constructiva.
Proponen duplicar una neurona ya existente, es decir aadir un nueva
neurona oculta cuyos pesos tomen el mismo valor que los de una neurona ya
existente en la red.
Para seleccionar la neurona a duplicar se utiliza la medida llamada rango
de fluctuacin ms alto, HFR, (Highest Fluctuation Rate, en ingls) definida
por la ecuacin (4.1):
HFR = Max ( Wi ho i )
Wi = Wi (n) - Wi (n - 1)

(4.1)

ho i = ho i (n) - ho i (n - 1)

En ella, Wi es la variacin de los pesos de entrada a la neurona oculta como


consecuencia de la ltima adaptacin, hoi es la variacin en la salida de la
neurona como consecuencia de la adaptacin de los pesos, Wi es el vector de
pesos para la i-sima neurona en la capa oculta (cuya dimensin coincide con el
nmero de neuronas en la capa de entrada) y hoi es la salida de la i-sima neurona
oculta.
La idea consiste en duplicar aquella neurona que tiene la mxima variacin
HFR. De esta forma, seleccionamos una neurona que est siendo activamente
modificada por parte del algoritmo de aprendizaje.
Para seleccionar la neurona, calcularemos HFR, duplicaremos la neurona
con mayor valor de este ndice y los pesos de la nueva neurona coincidirn con los
de la neurona que se duplica.

- 175 -

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

4.2.2. Fase de podado: eleccin de la neurona a podar


En lo que respecta a criterios para seleccionar la neurona a eliminar en la
fase de podado, se han utilizado 13 mtodos diferentes. A continuacin, se
describen con detalle cada uno de estos mtodos.
MTODO 1 (Engelbrecht & Cloete)
En el tercer captulo, vimos que los autores de la referencia [11], proponan
un mtodo que utilizando la medida de la sensibilidad clasificaba las unidades de
entrada a la red segn su importancia, pudiendo despus podar las menos
importantes.
Basndose en la misma idea, en [7] se da un mtodo para podar neuronas
ocultas. Se define la medida de la sensibilidad en la salida debida a una neurona
oculta segn:
Sij =

oi
ho j

(4.2)

En donde oi es la salida de la i-sima neurona de salida y hoj es la salida de


la j-sima neurona oculta.
Para cada pareja de salida y unidad oculta obtendremos una sensibilidad
diferente y esta tambin cambiar para cada patrn de entrenamiento, por lo que
para tener una medida ms exacta de la sensibilidad es ms adecuado medir la
sensibilidad media.
En la referencia, se propone medir la sensibilidad media en el conjunto de
entrenamiento (mean square average sensitivity, en ingls) mediante la ecuacin
siguiente:
P

Aij =

(S ij )2

(4.3)

p =1

En donde P es el nmero de patrones del conjunto de entrenamiento.


Con la anterior ecuacin, tendremos varias medidas de sensibilidad para
cada unidad oculta, tantas como nmero de salidas en la red. Para obtener una
nica medida de sensibilidad, se calcula el mximo, es decir, se mide la
sensibilidad de una unidad j en la capa oculta, sobre todas las unidades i en la
capa de salida:

- 176 -

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

S i = max{Aij }

(4.4)

De esta forma, podaremos aquella neurona cuya sensibilidad Si dada por la


ecuacin (4.4) sea menor.
MTODO 2 (Gosh & Tumer)
En la referencia [12], se analizan diferentes mtodos para reducir los
parmetros de la red neuronal.
En concreto, referente a nuestro tema de estudio, se revisa un mtodo de
podado de unidades ocultas, denominado supresin de la actividad de unidades
ocultas (supression of hidden unit activations, en ingles).
El mtodo consiste en aadir un penalti a la funcin de error que se
minimiza en el entrenamiento de forma que dicho trmino penalice la activacin
de las unidades ocultas.
En la referencia no se especifica la funcin penalti usada, solo sugieren que
puede ser una funcin no lineal tipo sigmoide o logartmica.
Nosotros en concreto hemos utilizado el siguiente penalti:
Penalti =

hoi2 = ( f (hii )) 2
i

hii =

wiij xi ;

f (v ) =

(4.5)

1
1 + e -v

En donde hoi es la activacin (salida) de la i-sima neurona oculta.


Recordemos, que las funciones de activacin en las redes que aqu utilizamos, son
de tipo sigmoide.
Al aadir dicho trmino a la funcin de error y aplicar tcnicas de gradiente
descendente para minimizar su valor, se afecta directamente a las ecuaciones de
adaptacin de los pesos entre la capa de entrada y la oculta.
As, para dichos pesos habra que sumar al trmino de Backpropagation la
siguiente expresin:
hoi2
wiij

= 2 ho j ho j (1 - ho j ) xi

(4.6)

En donde hoj es la salida de la j-sima neurona oculta y xi es el valor de la isima entrada.

- 177 -

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

La modificacin de los pesos se hara segn la siguiente ecuacin:


Dwiij = -l

hoi2
wiij

-b

E
wiij

(4.7)

Aqu es un parmetro que controla el trmino de penalti, y es el paso de


adaptacin usado en Backpropagation.
En este mtodo, hay que modificar las funciones que se utilizan durante el
entrenamiento en la fase de podado.
Una vez completado el entrenamiento en la forma especificada, para
seleccionar la neurona a eliminar, se utiliza el criterio del llamado ndice Ri que se
define de la siguiente forma:
Ri =

1
P

hoi

(4.8)

p =1

Donde P es el nmero de patrones del conjunto de entrenamiento y hoi es la


salida de la neurona oculta i-sima.
As, la neurona que tiene un ndice Ri menor es aquella que se selecciona y
es podada.
MTODO 3 (Matsunaga Goodness Factor)
En la referencia [13], Hagiwara, revisa un nuevo mtodo de seleccin de la
unidad a podar propuesto por Matsunaga y otros en [22].
El mtodo mide el denominado Factor de Bondad (Goodness Factor, en
ingls). El factor de bondad Gi para la i-sima neurona oculta se define con la
siguiente ecuacin:
Gi =

(whij hoi )2
p

(4.9)

En donde, la primera suma es sobre todos los patrones p del conjunto de


entrenamiento, whij es el peso entre la i-sima neurona oculta, y la j-sima
neurona de salida y hoi es la salida de la i-sima neurona oculta.
Se podar aquella neurona oculta que tenga el menor factor de bondad. La
red ser entonces reentrenada para repetir el proceso probando a eliminar otra
neurona.

- 178 -

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Con este factor se trata de tener en cuenta el efecto que una neurona oculta
tiene sobre las salidas, por ello se multiplica la salida de la neurona oculta por el
peso entre esa neurona y la salida.
MTODO 4 (Hagiwara Consuming energy)
De nuevo en la referencia [13] se propone otro mtodo que mide el llamado
factor Energa Consumida (Consuming energy, en ingls) que servira para
elegir la neurona a podar.
El factor de energa consumida Ej de la j-sima neurona de la capa oculta
vendr dado por la ecuacin:
Ej =

Ninput
Nsalida

whkj o k ho j +
wi ji ho j xi

p =1 k =1
i =1
P

(4.10)

En donde P es el nmero de patrones del conjunto de entrenamiento, Nsalida


y Ninput el nmero de neuronas de salida y de entrada respectivamente, whkj es el
peso entre la k-sima unidad de salida y la j-sima unidad oculta, ok es la salida de
la k-sima unidad de salida, hoj es la salida de la j-sima unidad oculta, xj es la
salida de la i-sima unidad de entrada y por ltimo wiji es el peso entre la i-sima
unidad de entrada y la j-sima unidad oculta.
Igual que en el mtodo anterior el factor de energa consumida trata de
medir el efecto que tiene una neurona oculta sobre la salida, pero este mtodo es
ms complejo que el anterior, ya que en l se usan todos los pesos asociados a la
neurona oculta.
De nuevo se debe de eliminar aquella neurona que tenga factor de energa
consumida menor.
MTODO 5 (Hagiwara Weights power)
De nuevo Hagiwara en la referencia [13], propone un nuevo factor que es
una versin simplificada del factor de bondad, el denominado poder de los pesos
(weights power, en ingls).
El factor poder de los pesos de la j-sima neurona oculta se define con la
ecuacin siguiente:
Wj =

Nsalida

Ninput

k =1

i =1

(whkj )2 + (wi ji )2

- 179 -

(4.11)

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

En donde whkj es el peso entre la k-sima neurona de salida y la j-sima


neurona oculta, y wiji es el peso entre la j-sima neurona oculta y la i-sima
neurona de entrada.
El criterio de podado ser eliminar aquella neurona oculta que tenga un
menor factor de poder de los pesos.
MTODO 6 (Hagiwara Badness factor)
En la referencia [14], se describe otro mtodo que utiliza el llamado
Badness factor, como criterio para eliminar neuronas ocultas en el proceso de
podado.
Se define el Badness factor para la j-sima unidad oculta por la ecuacin:
BAD j =

Nsalida

(e j )2 = wh jk k
p =1

p =1

k =1

(4.12)

El factor de la j-sima neurona oculta, no es ms que la suma, para todos los


ejemplos del conjunto de entrenamiento, del error de Backpropagation (que se
utiliza para adaptar los pesos) al cuadrado.
En el primer captulo se pueden encontrar las ecuaciones
Backpropagation, en concreto k viene dada por la ecuacin (1.14).

de

El criterio de podado para este mtodo ser el de eliminar aquella neurona


oculta que tenga un mayor Badness factor.
MTODO 7 (Hirose)
Aqu simplemente hemos incluido el mtodo original de Hirose para podar
neuronas ocultas, descrito en [4].
En el mtodo de podado descrito por Hirose, las neuronas de la capa oculta
se podan en orden inverso a como fueron aadidas, es decir, primero se poda la
aadida ms recientemente y as sucesivamente.
Ahora no se utiliza una ecuacin como criterio de podado, como en el resto
de mtodos que hemos visto, es eminentemente un mtodo emprico.
En la referencia, se comprob que esta eleccin de neuronas a podar daba
buenos resultados.

- 180 -

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

MTODO 8 (Kamimura)
En las referencias [15] y [16], Kamimura, describe un mtodo basado en la
minimizacin de la entropa de las neuronas ocultas para extraer una estructura
ms simple de la red.
Para ello propone modificar el algoritmo de aprendizaje, para disminuir
simultneamente la entropa de las neuronas ocultas y la funcin de error de
Backpropagation. Disminuyendo la entropa lo que se consigue es que estn
activadas y funcionando el menor nmero posible de neuronas ocultas.
En la referencia, se define la funcin entropa para el conjunto de neuronas
ocultas de la siguiente forma:
H = -

pi log( pi )

(4.13)

i =1

Donde M es el nmero de neuronas ocultas, es un parmetro que regula el


valor de la entropa y pi representa la actividad normalizada de la neurona oculta i,
que se define con la siguiente ecuacin:
pi =

hoi

(4.14)

ho j
j =1

Donde hoi es la salida de la i-sima neurona oculta.


La minimizacin de la entropa afecta slo a los pesos entre las unidades de
entrada y las unidades de la capa oculta.
Cuando la entropa se minimiza, solo una de las neuronas ocultas se debe
activar. Contrariamente, cuando la entropa se maximiza, las neuronas ocultas
deben de activarse todas por igual. Por ello, se espera que si la entropa se hace
suficientemente pequea, solo un pequeo nmero de neuronas ocultas se debera
activar. De esta forma, se puede utilizar la funcin entropa para determinar cul
sera la estructura ms simple de la red, es decir, que neuronas ocultas se pueden
eliminar.
La ecuacin de adaptacin de los pesos dada por Backpropagation se ver
ahora modificada y su nueva expresin ser la siguiente:
wiij = -

H
wiij

- 181 -

E
wiij

(4.15)

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Donde H es la funcin entropa anterior, E es el error cuadrtico, wiij son los


pesos entre las entradas y las unidades ocultas, es el paso de adaptacin y el
parmetro que regula la entropa.
La salida de una neurona oculta se puede obtener mediante la funcin f de
transferencia (sigmoide) aplicada sobre la entrada a la neurona:
Ninput

hoi = f (hii ) = f
wiij x j

j =1

(4.16)

Donde Ninput es el nmero de neuronas de entrada a la red.


A partir de la ecuacin (4.13) podemos calcular la derivada de la entropa
respecto de los pesos aplicando para ello la regla de la cadena. As resulta:
H
wiij

=-

( p i log( p i ))

i =1

wiij

=-

( p )

i =1

wii

log( pi ) + pi

ij

(log( p i ))

wiij

(4.17)

Operando se obtiene:
H
wiij

=-

i =1

wi i

ij

(log p i + 1)

(4.18)

Falta calcular la variacin de pi respecto de los pesos. A partir de las


ecuaciones (4.14) y (4.16) obtenemos:

pi
pi hoi hii
=

=
wiij hoi hii wiij

ho j - hoi
j =1

ho j

(4.19)
f (hii ) x j

j =1

Podemos expresar la derivada final de la entropa por la ecuacin:


H
wiij

= i x j

(4.20)

En donde xj es la entrada j-sima de la red neuronal y i est dada por la


siguiente ecuacin:
M

ho j - hoi
j =1

i = (log p i + 1)
f ( hii )
M

ho j

j =1

- 182 -

(4.21)

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

En donde hoj es la salida de la j-sima neurona oculta y f(hii) es la derivada


de la funcin de transferencia de la unidad oculta.
Por todo lo anterior, el entrenamiento durante el proceso de podado se ver
modificado tal y como hemos indicado.
Una vez completado el entrenamiento en la forma especificada, para
seleccionar la neurona a eliminar, Kamimura utiliza el llamado ndice Ri que se
define de la siguiente forma:
Ri =

1
P

hoi

(4.22)

p =1

Donde P es el nmero de patrones del conjunto de entrenamiento y hoi es la


salida de la neurona oculta i-sima.
Se trata en definitiva de la media de las salidas de las neuronas ocultas para
el conjunto de entrenamiento. Ri mide la respuesta de una neurona i de la capa
oculta ante los patrones de entrada. Cuanto menor sea Ri menor ser la respuesta
por lo que dicha neurona ser la candidata a eliminar.
Finalmente tenemos pues que eliminar aquella neurona cuyo ndice R sea
menor.
MTODO 9 (Kurita & otros)
En la referencia [17] Kurita propone modificar el proceso de aprendizaje y
aadir ruido aleatorio a la entrada de las neuronas ocultas.
Las caractersticas del ruido son: posee media cero y distribucin uniforme
dentro de un intervalo. Nosotros hemos utilizado el intervalo [-0.5,0.5] de
amplitud 1, tal como recomienda la referencia.
Sea hij la entrada a una neurona oculta, segn las ecuaciones de la red que
ya vimos en el primer captulo dicha entrada se puede expresar en funcin de los
pesos y umbrales entre la primera y segunda capa de la red.
Ninput

hi j =

wiij xi +

(4.23)

i =1

Para hallar la salida de las unidades ocultas bastara con aplicar la funcin
de transferencia (sigmoide) sobre la entrada a la neurona.
Si se le aade ruido n a la ecuacin (4.23) nos quedar:

- 183 -

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Ninput

hi j =

wiij xi + n +

(4.24)

i =1

A partir de esta ecuacin el resto de ecuaciones del entrenamiento se vern


modificadas por la presencia del ruido tal y como se describe en la referencia [15].
De esta forma, segn sus resultados experimentales, se obtiene una red
esqueltica, es decir, en donde los pesos tienen un valor claro distinto de cero o
por el contrario tienen un valor muy prximo a cero.
De nuevo en este mtodo, el proceso de aprendizaje durante la fase de
podado se ver modificado.
Para seleccionar la neurona a eliminar despus del entrenamiento con ruido,
en la referencia, no se propone ningn mtodo en particular.
Nosotros hemos empleado uno de los ya comentados anteriormente, en
concreto el mtodo del factor de bondad (Goodness factor, en ingls), [22].
MTODO 10 (Lim & Ho)
De nuevo se utiliza una idea presentada en el tercer captulo para determinar
que neurona es menos importante. Ahora se aplica al caso de neuronas ocultas de
forma que la que sea menos importante, ser la candidata a podar.
En la referencia [18], se propone utilizar el factor Aj para la unidad oculta jsima, definido por la siguiente ecuacin:
Aj =

Nsalida

wh jk

(4.25)

k =1

En donde whjk es el peso entre la j-sima unidad oculta y la k-sima unidad


de salida, y la suma se realiza sobre todas las unidades de salida.
De acuerdo con este ndice, se debe de eliminar aquella unidad oculta que
tenga el menor valor del ndice.
MTODO 11(Yasui)
Yasui propone en la referencia [19] un nuevo criterio de podado de
neuronas en la capa oculta.
Para ello modifica el proceso de adaptacin de los pesos (Backpropagation)
entre la capa oculta y la de salida introduciendo dos trminos adicionales.

- 184 -

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

La nueva ecuacin para la adaptacin de los pesos ser:


whij (t ) = -

E
whij

+ whij (t - 1) + S + F

(4.26)

Como vemos si eliminamos los trminos S y F la ecuacin se reduce al


algoritmo Backpropagation estndar.
Los valores de S y F se pueden calcular, segn la referencia, mediante las
ecuaciones siguientes.
La ecuacin de S ser:
S =-

whik
signo(whij ) - whij +
m -1

k =1

(4.27)

Donde m es el nmero de neuronas ocultas, whij es el peso entre la i-sima


neurona de salida y la j-sima neurona oculta y es una constante positiva.
Este penalti es denominado en la referencia trmino de supresin y trata de
minimizar el nmero de neuronas activas poniendo un penalti a todos los pesos
asociados a una neurona de salida.
En cuando al trmino F su expresin es la siguiente:
F =-

- whij +
whkj
n - 1 whij

k =1

E 2

(4.28)

Donde n es el nmero de unidades de salida y es una constante positiva.


A este trmino se le denomina en la referencia trmino de facilitacin, trata
de conseguir que crezcan todos los pesos asociados a una neurona oculta
reforzando el aprendizaje de Backpropagation.
Igual que antes, este mtodo modificar el aprendizaje que se realiza
durante la fase podado de la red.
En la referencia no se propone ningn mtodo para seleccionar que neurona
oculta debemos de eliminar.
Nosotros hemos utilizado para seleccionar la neurona a podar el criterio que
describimos anteriormente llamado Factor de Bondad.

- 185 -

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

MTODO 12 (Bartlett sensibilidad)


De nuevo se utiliza el concepto de sensibilidad como criterio para la
eleccin de la neurona a podar.
En la referencia [20], Bartlett propone que se deberan eliminar aquellas
neuronas no tiles de la red. Para ello, propone utilizar una medida de la
importancia de las neuronas ocultas en funcin de las neuronas de salida.
En concreto, dicha medida consiste en calcular la sensibilidad media de la
unidad oculta j respecto de la unidad de salida k y respecto de todos los patrones
de entrada.
S kj =

1
P

hok
p =1

(4.29)
j

En donde P es el nmero de patrones en el conjunto de entrenamiento.


Para estimar la importancia total de una neurona oculta, basta con sumar
sobre todas las neuronas de salida:
Sj =

Nsalida

S kj

(4.30)

k =1

Se podara la neurona oculta que tenga un valor de la sensibilidad Sj menor.


MTODO 13 (Bartlett teora de la informacin)
En la referencia [21], se proponen el uso de conceptos de teora de la
informacin para seleccionar la neurona oculta a eliminar.
En concreto, se propone medir la importancia total de una neurona oculta a
partir de los valores de la interdependencia de la misma con las salidas y la
redundancia de dicha neurona respecto del resto de neuronas de la capa oculta.
As se define dicho factor como:
I (hoi ) =

Nsalida

Nhidden

k =1

m =1;m i

I (ok , hoi ) - R(hoi , hom )

(4.31)

En esta expresin, I(ok,hoi) es la informacin mutua entre la salida k y la


neurona oculta j. Dicha magnitud, da idea del grado de dependencia entre ambas
neuronas, siendo mayor cuanto mayor sea la dependencia. Por lo tanto, el ndice
crece cuanto mayor sea la dependencia entre las salidas y la neurona oculta (esta
ser ms importante).
- 186 -

4.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Anlogamente, R(hoi,hom) es la informacin mutua entre la neurona i y la


neurona m de la capa oculta. Este trmino trata de tener en cuenta la redundancia
entre las distintas neuronas ocultas, por lo tanto, el ndice disminuye cuando
mayor sea la redundancia.
El valor de I(hoi) determinar el grado de importancia de las neuronas
ocultas. Se deber podar aquella neurona que tenga un valor del ndice menor, es
decir, la neurona oculta menos importante.
Falta por determinar los valores de los sumandos. Estos puede calcularse a
partir de las entropas de la siguiente forma:
H (ho i ) + H (o k ) - H (ho i , o k )

I (o k , ho i ) = 2

H (ho i ) + H (o k )

(4.32)

H (hoi ) + H (ho m ) - H (ho i , ho m )

R(ho i , ho m ) = 2

(
)
(
)
+
H
ho
H
ho

i
m

Las entropas se pueden calcular a partir de las probabilidades. Para ello se


divide el rango de variabilidad de los valores que pueden tomar las salidas en
diferentes bandas l de igual longitud.
As la probabilidad de que la salida ok est en una banda g se medir por la
ecuacin:
Nmero veces que ok cae en la banda g
(4.33)
pk ,g =

Nmero de patrones de entrenamiento

Para una unidad oculta, se realiza la misma operacin, se divide el rango de


variabilidad de los valores que puede tomar en l bandas de igual longitud y la
probabilidad de que hok est en una banda t se calcular de forma similar a la
ecuacin (4.33).
Las entropas pueden calcularse a partir de probabilidades con la expresin:
H (ok ) = -

pk ,g log 2 ( pk ,g )

(4.34)

g =0

H (ho m ) = -

pm, t log 2 ( p m, t )
t =0

Por otra parte la expresin de la entropa conjunta sera la siguiente:


l

H (hoi , ho k ) = - p g , t log 2 ( p g , t )

(4.35)

g =0 t =0

Donde pg,t sera la probabilidad de que hoi se encuentre dentro de la banda


nmero g y hok se encuentre dentro de la banda t. La suma se extiende para todas
las bandas en las que hemos dividido hoi y hok.

- 187 -

4.3. METODOLOGA

4.3. Metodologa
En primer lugar hemos realizado una seleccin de los problemas sobre los
que realizar nuestros experimentos. Hemos escogido un total de 11 problemas o
bases de datos del repositorio UCI con datos normalizados en el intervalo [0,1].
Hemos abreviado sus nombres como sigue:
Balance Scale Weight & Distance (BALANCE), Cylinder Bands (BANDS),
BUPA Liver Disorders (BUPA), Credit Approval (CREDITO), Display1
(DISPLAY1), Glass Identification (GLASS), Heart Disease (HEART), Image
Segmentation (IMAGEN), The Monks Problems (MOK1, MOK2), 1984 U.S.
Congressional Voting Records (VOTING).
Como vimos al principio de este captulo, nuestros experimentos se basarn
en el algoritmo de Hirose modificado dado en la figura 2.
El algoritmo consta de una fase constructiva, en la cual se aadan neuronas
a la red mediante el mtodo de HIROSE o el de KHORASANI y despus una fase
de podado, en la cual se utiliza alguno de los 13 mtodos descritos para eliminar
neuronas.
Para la primera fase, para cada problema, partiremos de una red con una
sola neurona en la capa oculta y se entrenar dicha red con Backpropagation.
El primer paso que dimos, fue determinar los parmetros que se utilizan en
el algoritmo, es decir, el valor de la variable veces y del porcentaje de
decremento en ECM y ECM_cros.
Para ello, realizamos varias pruebas, escogiendo finalmente los valores de
veces=3 y un valor en el decremento para los errores ECM y de cros-validacin
del 5%.
Despus de determinados los parmetros, procedimos a la aplicacin de la
primera fase, la fase constructiva.
Realizamos dos experimentos diferentes, uno aplicando el procedimiento de
HIROSE y otro aplicando el de KHORASANI. El procedimiento seguido fue el
mismo para ambos, lo nico que cambiaba era la manera de inicializar los pesos
de la nueva neurona aadida. Para el mtodo de HIROSE, los pesos de las nuevas
neuronas ocultas se inicializan aleatoriamente dentro de un intervalo centrado en
cero, y para el mtodo de KHORASANI, se duplica el valor de los pesos de una
neurona ya existente (aquella con mayor valor del ndice HFR).

- 188 -

4.3. METODOLOGA

Como hemos dicho antes, se parte de una red con una sola neurona oculta y
se aplica la fase constructiva del algoritmo. Cada 100 pocas de entrenamiento se
comprob si el error ECM haba disminuido ms de un 5%, en ese caso se
continu el entrenamiento 100 pocas ms y se volvi a comprobar. Cuando el
ECM no disminua ms de un 5% se intentaba aadir una neurona ms. Se
comprobaba s el ECM_cros haba decrecido ms de un 5%, y en ese caso se
continuaba entrenando con una neurona ms. Cuando el ECM_cros decreca
menos de un 5%, an se daban hasta tres oportunidades nuevas de aadir neuronas
y despus se daba por concluido el aprendizaje.
Finalizada la fase constructiva, se determina mediante cros-validacin el
punto de convergencia y el nmero de neuronas ocultas final de la red (es decir
los valores para los cuales ECM_cros es mnimo).
Como siempre, el resultado final del entrenamiento de la red, va a depender
de las condiciones iniciales, por ello, en nuestros experimentos para cada
problema, hemos repetido la fase constructiva 30 veces con diferentes particiones
de los datos e inicializacin de los pesos. As, hemos obtenido 30 resultados
diferentes para cada problema.
Para esos 30 resultados anotaremos:
-

Valor mximo y mnimo del nmero de neuronas ocultas final.

Valor medio del nmero de neuronas en los 30 experimentos.

Desviacin estndar en el nmero de neuronas ocultas.

Porcentaje o eficiencia media con su error de las 30 redes.

El proceso anterior se realiz para el caso del algoritmo constructivo de


HIROSE y para el procedimiento constructivo de KHORASANI.
Comienza ahora la fase de podado. En la fase constructiva para cada uno de
los dos procedimientos hemos obtenido 30 redes cada una con un determinado
nmero de neuronas ocultas. Para realizar la fase de podado aplicamos a cada una
de estas redes la fase de podado del algoritmo.
Durante la fase de podado se selecciona la neurona a podar, se entrena la
nueva red sin esa neurona y cada 100 pocas se comprueban los valores de ECM
y ECM_cros. Se repite el algoritmo, eliminando neuronas hasta que se cumplan
las condiciones de parada de la fase de podado.
La fase de podado se realizar para cada uno de los 13 mtodos de podado
estudiados.

- 189 -

4.3. METODOLOGA

Aplicamos uno de los mtodos de podado a las 30 redes obtenidas en la fase


constructiva y obtenemos 30 redes finales.
Para esas 30 redes finales anotaremos:
-

Valor medio del nmero de neuronas ocultas en los 30 experimentos.

Desviacin estndar en el nmero de neuronas ocultas.

Porcentaje o eficiencia media con su error de las 30 redes.

Esto se repite para cada mtodo y tanto en el caso de los resultados del
mtodo constructivo de HIROSE, como para los de KHORASANI.
Tendremos para las 30 redes obtenidas aplicando el procedimiento de
HIROSE, 30 redes finales para cada uno de los 13 mtodos de podado.
Tambin para las 30 redes obtenidas en la fase constructiva aplicando
KHORASANI, tendremos 30 redes finales para cada uno de los 13 mtodos de
podado.
Para el mtodo 2 no se da en la referencia [12] el valor adecuado para el
parmetro . Nosotros hemos probado con 5 valores diferentes que hemos
denominado: a=0.01, b=0.001, c=0.0001, d=0.00001, e=0.000001. En los
resultados experimentales tendremos 5 diferentes resultados segn el valor de
escogido.
En el mtodo 8 el parmetro se ha escogido con un valor pequeo, tal
como especifica la referencia [15] y [16]. Hemos utilizado 5 valores diferentes
que hemos denominado: a=0.01, b=0.001, c=0.0001, d=0.00001, e=0.000001.
De nuevo en los resultados experimentales tendremos 5 diferentes resultados
segn el valor de escogido.
En el mtodo 11, para los parmetros y hemos escogido los siguientes
valores (, ) que denominamos: a=(0.0001,0.1), b=(0.0001,0.5), c=(0.0001,1),
d=(0.0001,3), e=(0.0008,0.1), f=(0.0008,0.5), g=(0.0008,1), h=(0.0008,3). As
obtendremos ocho resultados diferentes para la aplicacin de este mtodo.
Como proceso final faltara comparar cul de los mtodos es ms eficiente.
Realmente lo que hay que determinar es que procedimiento es mejor en la fase
constructiva y para ese, ver que mtodo de podado funciona mejor.
Los criterios utilizados para decidir cul es mejor son los de siempre: la red
que suministre mejor capacidad de generalizacin y sea la ms pequea. El
criterio ms restrictivo es la capacidad de generalizacin y solo en el caso de que

- 190 -

4.3. METODOLOGA

las capacidades que se comparen sean similares se escoger el mtodo que


proporcione una red ms pequea.
Para determinar que red es ms pequea, nosotros hemos estudiado el valor
medio del nmero de neuronas ocultas (que se obtiene a partir de los 30
experimentos).
Todos los resultados se encuentran en el apartado siguiente, primero los
correspondientes a la fase constructiva para los dos mtodos HIROSE y
KHORASANI y todas las bases de datos usadas, y despus para cada base de
datos se darn los resultados de los 13 mtodos de podado, tanto para el caso de
partir de las redes obtenidas aplicando HIROSE, como para el caso de partir de las
de KHORASANI.

- 191 -

4.4. DESARROLLO EXPERIMENTAL

4.4. Desarrollo Experimental


En la segunda seccin de este captulo se describi el proceso a seguir para
determinar el nmero de neuronas ocultas apropiado en una red neuronal, para
resolver un cierto problema.
Vimos que el procedimiento a seguir sera el del algoritmo de Hirose
modificado que se encuentra en la figura 2. El algoritmo consta de dos fases
diferentes la primera de crecimiento y la segunda de podado. En la fase de
crecimiento inicializamos la red con una sola neurona oculta, y siguiendo el
algoritmo se van aadiendo neuronas hasta alcanzar la condicin de parada.
Despus llega la fase de podado, en la cual se determina si la eliminacin de
neuronas ocultas en la red encontrada en la primera fase no empeora la capacidad
de generalizacin de la misma, y si es as, se eliminan neuronas hasta que la
eficiencia se deteriore.
Partiendo de una red con una sola unidad oculta hemos aplicado en primer
lugar la fase constructiva del algoritmo.
Nuestros experimentos se han aplicado a 11 problemas del repositorio UCI:
BALANCE, BANDS, BUPA, CREDITO, DISPLAY1, GLASS, HEART,
IMAGEN, MOK1, MOK2, VOTING.
En las Tablas 1 y 2 se muestran los resultados obtenidos para la fase
constructiva, durante la que se aaden neuronas. Los experimentos se realizaron
tal como se describi en la metodologa.
En la Tablas 1 y 2 se encuentran los valores del nmero medio de neuronas
que se alcanza despus de la fase constructiva (Nhidden medio), la desviacin
estndar en el nmero de neuronas (Desviacin Estndar en Nhidden), el
nmero mximo y mnimo de neuronas que se alcanzarn en el total de 30 redes
entrenadas y por ltimo, el porcentaje en el test con la configuracin final de
pesos, es decir, la capacidad de generalizacin.
La Tabla 1, contiene los resultados de la aplicacin del mtodo de HIROSE,
donde los pesos de la nueva neurona aadida se escogen aleatoriamente.
En la Tabla 2 se muestran los resultados de la aplicacin del mtodo de
KHORASANI, en donde para aadir una nueva neurona se selecciona una
neurona existente y se duplica.

- 192 -

4.4. DESARROLLO EXPERIMENTAL

Tabla 1. Resultados de la Fase Constructiva de HIROSE.


Nhidden
Medio
BALANCE
BANDS
BUPA
CREDITO
DISPLAY1
GLASS
HEART
IMAGEN
MOK1
MOK2
VOTING

1.87
1.23
2.57
1.73
8.37
7.5
1.1
9.53
4.33
3.2
1.07

Desviacin
Estndar en
Nhidden
1.11
0.68
1.52
1.41
1.73
3.47
0.55
3.55
1.27
1.45
0.25

Nhidden
Mnimo

Nhidden
Mximo

Porcentaje

1
1
1
1
5
4
1
4
3
1
1

4
4
6
6
12
22
4
18
6
6
2

87.60.6
69.80.9
67.01.2
85.50.5
72.30.3
92.50.9
82.00.8
94.20.3
95.30.9
75.00.8
95.30.4

Tabla 2. Resultados de la Fase Constructiva de KHORASANI.


Nhidden
Medio
BALANCE
BANDS
BUPA
CREDITO
DISPLAY1
GLASS
HEART
IMAGEN
MOK1
MOK2
VOTING

2.63
1
1.73
1.43
3.5
4.77
1.03
5.5
3.23
2.3
1.23

Desviacin
Estndar en
Nhidden
1.81
0
1.14
1.04
0.78
1.59
0.18
0.63
1.50
1.34
0.77

Nhidden
Mnimo

Nhidden
Mximo

Porcentaje

1
1
1
1
2
1
1
4
1
1
1

6
1
4
4
4
7
2
7
7
4
5

87.60.7
70.20.9
65.41.2
85.30.5
33.90.5
74.51.4
82.10.8
54.80.7
76.30.7
66.20.5
95.30.4

Comparando los resultados de ambas tablas, se observa que para el mtodo


de KHORASANI se obtiene un nmero medio de neuronas ocultas final inferior.
Esto se puede observar para todas las bases de datos excepto para BALANCE.
Sin embargo, comparando los resultados de la capacidad de generalizacin
se puede ver que en algunos problemas KHORASANI proporciona un porcentaje
claramente inferior e inaceptable en comparacin con HIROSE.
Por ejemplo, para el problema DISPLAY1, el mtodo HIROSE obtiene un
valor de 72.30.3 y en KHORASANI tan slo un 33.90.5. Lo mismo ocurre con
GLASS, IMAGEN, MOK1 y MOK2. Si miramos el nmero de neuronas en esos
problemas, vemos que los valores de Nhidden medio para KHORASANI son
claramente inferiores a los alcanzados por HIROSE. Por ello, podemos concluir
que en algunos problemas KHORASANI llega a un nmero de neuronas

- 193 -

4.4. DESARROLLO EXPERIMENTAL

demasiado bajo, insuficiente para resolver el problema y ello repercute en una


capacidad de generalizacin inferior.
De las dos alternativas para la fase constructiva, en la cual que se aaden
neuronas, la conclusin de acuerdo con nuestros resultados experimentales, ser
que el mtodo de HIROSE es el ms apropiado y debe ser utilizado.
Podemos ahora comparar los resultados del mtodo constructivo de
HIROSE con los que se obtienen del procedimiento clsico de seleccionar la
arquitectura de la red por prueba y error.
Para ello, en la Tabla 3 se dan los resultados de la arquitectura de red
seleccionada mediante el procedimiento de prueba y error. En ella, tenemos el
nmero de neuronas ocultas en la columna encabezada por Nhidden y el
porcentaje en el conjunto de test, es decir, la capacidad de generalizacin.
Tabla 3. Resultados de la eleccin de Nhidden por
el mtodo clsico de prueba y error.
BALANCE
BANDS
BUPA
CREDITO
DISPLAY1
GLASS
HEART
IMAGEN
MOK1
MOK2
VOTING

Nhidden
6
13
8
9
15
6
6
13
5
14
13

Porcentaje
589
68.21.3
68.31.6
86.60.6
71.91.3
78.91.1
80.60.9
91.00.5
73.61.1
73.61.1
95.90.6

Comparando los resultados de las Tablas 1 y 3, lo primero que llama la


atencin es que el mtodo constructivo de HIROSE llega a una arquitectura de red
con un nmero de neuronas ocultas claramente inferior al que se obtiene mediante
el procedimiento de prueba y error.
Por ejemplo, para el problema BALANCE con el procedimiento
constructivo se obtiene una media de 1.87 neuronas ocultas y mediante prueba y
error 6, en total unas 4 neuronas ms. Lo mismo ocurre con todos los problemas
con la excepcin de GLASS, en donde el procedimiento constructivo tiene una
media de 7.5 neuronas y mediante prueba y error se obtienen 6.

- 194 -

4.4. DESARROLLO EXPERIMENTAL

El hecho de que el procedimiento constructivo proporcione redes neuronales


con menos unidades ocultas de las que se obtienen mediante prueba y error, no
significa nada sino examinamos la capacidad de generalizacin.
Es perfectamente posible que los resultados constructivos sean ms
apropiados.
Para entenderlo mejor, debemos comentar cmo se han seleccionado las
arquitecturas mediante prueba y error, y ver las serias crticas que existen
actualmente en la bibliografa en contra de la utilizacin de este procedimiento.
El procedimiento de prueba y error consiste en entrenar redes neuronales
con distinto nmero de neuronas ocultas. En concreto, en nuestros experimentos
se entrenaron redes con nmeros comprendidos entre 1 y 27 neuronas ocultas.
Posteriormente, mediante un conjunto de cros-validacin se obtiene la capacidad
de generalizacin de cada una de dichas arquitecturas. Finalmente, se selecciona
la arquitectura que proporciona una capacidad de generalizacin mejor en el
conjunto de cros-validacin.
Recientemente, se puede encontrar un artculo [23] que proporciona
resultados experimentales y conclusiones en contra de la idoneidad del
procedimiento de prueba y error. En concreto, de los resultados experimentales se
concluye que la capacidad de generalizacin que se espera de un procedimiento de
prueba y error no es mejor que la que se obtendra eligiendo aleatoriamente la
arquitectura. Adems, se concluye tambin, que se suele obtener un nmero de
neuronas mayor del normalmente necesario.
Una vez comentado esto, para determinar cul de los dos algoritmos, el
procedimiento de prueba y error o el algoritmo constructivo, selecciona de forma
ms idnea la arquitectura; pasamos a examinar la capacidad de generalizacin de
ambos mtodos.
Comparando los resultados de las Tablas 1 y 3 se puede concluir que el
procedimiento constructivo proporciona en general una capacidad de
generalizacin mayor.
Ha sido as para los problemas BALANCE, BANDS, GLASS, HEART,
IMAGEN, MOK1 y MOK2. En algunos casos, como en BALANCE, la diferencia
es muy importante, el algoritmo constructivo proporciona una generalizacin
media de 87.60.6 y el procedimiento de prueba y error tan slo del 589.

- 195 -

4.4. DESARROLLO EXPERIMENTAL

Por otra parte, hay problemas en los que el procedimiento constructivo


obtuvo una capacidad de generalizacin inferior. Estos son, BUPA, CREDITO y
VOTING pero la diferencia entre ambos es mnima de alrededor de un 1%.
Por todo ello, pueden considerarse los resultados del algoritmo constructivo
como mejores que los de prueba y error y podemos concluir tambin que el
nmero de neuronas ocultas seleccionadas mediante el procedimiento constructivo
es el ms adecuado.
Hasta aqu, hemos examinado los resultados de la fase constructiva del
algoritmo, en la que se aaden neuronas a la red, pasemos ahora a observar los
resultados de la fase de podado.
De nuevo realizamos los experimentos tal como se describe en la
metodologa.
En las Tablas 4 y 5 del apndice del captulo, tenemos los resultados de la
fase de podado. La Tabla 4 corresponde a la fase de podado posterior a la
utilizacin del mtodo de HIROSE en la fase constructiva, y la Tabla 5 se
corresponde con la utilizacin del podado sobre el punto final del mtodo de
KHORASANI en la fase constructiva.
En nuestros experimentos, aplicamos simultneamente todos los mtodos y
los resultados fueron analizados al final, por lo que hasta ese momento no se pudo
determinar cul de los dos procedimientos en la fase constructiva resultara mejor.
Los resultados de la Tabla 5, se incluyen tan slo para satisfacer la curiosidad del
lector.
En ellos se puede observar que no se ha incluido el problema BANDS en el
caso del mtodo de KHORASANI. Esto es debido a que en la fase constructiva
todas las redes obtenidas tenan tan solo una unidad oculta, por lo cual no puede
haber fase de podado posterior.
Nos centraremos pues, en los resultados de la Tabla 4, ya que como hemos
concluido anteriormente el mtodo constructivo de HIROSE es el ms apropiado.
En la Tabla 4, se incluyen para las distintas bases de datos, en la columna
encabezada por Nhidden, el nmero de unidades ocultas resultante despus de
la fase de podado. Tambin se incluye la desviacin estndar de dicho nmero
entre parntesis. Por otra parte, en la columna encabezada como POR se
incluye la capacidad de generalizacin obtenida despus de la fase de podado.
Observando los resultados de la Tabla 4, se puede ver que las diferencias
entre las capacidades de generalizacin resultantes de los distintos procedimientos
- 196 -

4.4. DESARROLLO EXPERIMENTAL

de podado son mnimas y prcticamente inexistentes. La mayor diferencia entre el


peor y mejor mtodo, desde el punto de vista de la capacidad de generalizacin, se
encuentra en el problema MOK2 y es de 1.6%.
Comparando las Tablas 1 y 4 que nos dan los resultados de la fase
constructiva y de podado respectivamente, se puede ver que la capacidad de
generalizacin alcanzada en la fase constructiva es similar a la que se obtiene
despus de la fase de podado.
Es decir, la reduccin adicional de neuronas que se consigue en la fase de
podado no repercute en un aumento de la capacidad de generalizacin. Por lo
tanto, la fase de podado debe verse simplemente, como un mecanismo para
conseguir un modelo de red neuronal ms sencillo, pero sin ninguna repercusin
en la capacidad de generalizacin de la red.
Observando de nuevo la Tabla 4, vemos que s que hay diferencias entre los
mtodos en el nmero medio de neuronas alcanzado despus de la fase de podado.
En algunos casos, dicha diferencia, llega a ser de una neurona oculta o incluso dos
en uno de los casos (MOK1, DISPLAY1, GLASS, IMAGEN).
Comparando los nmeros medios de unidades ocultas podemos finalmente
concluir que el mejor mtodo de podado es el denominado Mtodo 9. Dicho
mtodo obtiene los mejores resultados en 9 de las 11 bases de datos.
Por ltimo, y a modo de conclusiones finales, podemos decir que los
procedimientos constructivos obtienen un nmero de neuronas adecuado para
resolver el problema con una capacidad de generalizacin superior a la obtenida
por el procedimiento de prueba y error. De entre los procedimientos analizados
los mejores han sido el mtodo de HIROSE para la fase constructiva y el
denominado Mtodo 9 para la fase de podado.

- 197 -

4.5. CONCLUSIONES

4.5. Conclusiones
A lo largo de este captulo hemos estudiado los diferentes mtodos
existentes en la bibliografa para seleccionar el nmero de neuronas ocultas
necesario para la red Multilayer Feedforward. El procedimiento que proponemos
es la utilizacin de un algoritmo similar al de Hirose en el cual existe una fase
constructiva inicial, durante la cual se aaden neuronas, y una fase de podado
posterior, en la que se elimine el exceso de neuronas aadidas en la primera fase.
La diferencia con el algoritmo original de Hirose es la condicin de parada del
algoritmo: nosotros utilizamos como criterio de convergencia de las redes crosvalidacin.
Se ha aplicado dicho algoritmo a los mtodos constructivos de HIROSE y
KHORASANI, llegando a la conclusin de que la capacidad de generalizacin
obtenida en la fase constructiva para el algoritmo de HIROSE es mejor que la de
KHORASANI, obteniendo al mismo tiempo un nmero de neuronas adecuado
para resolver el problema.
Tambin hemos estudiado la eficiencia de los procedimientos de prueba y
error frente al mtodo de HIROSE, concluyendo igualmente que la capacidad de
generalizacin es superior para HIROSE.
Por ltimo, utilizando como mtodo constructivo HIROSE, durante la fase
de podado se observa que la capacidad de generalizacin obtenida es similar a la
de la fase constructiva, con lo cual la reduccin de neuronas no repercute en la
mejora de la capacidad de generalizacin, sin embargo si que simplifica la
estructura de las redes.
Si se comparan los nmeros medios de unidades ocultas se puede concluir
que el mejor mtodo de podado es el denominado Mtodo 9 cuyos autores son
Kurita y otros, en combinacin con el mtodo constructivo de HIROSE.

- 198 -

4.6. BIBLIOGRAFA DEL CAPTULO

4.6. Bibliografa del Captulo


[1] Yu, X. H., Can Backpropagation error surface have no local minima. IEEE
Transactions on Neural Networks, vol. 3, pp. 1019-1021, 1992.
[2] Kwok, T. Y., Yeung, D. Y., Constructive algorithms for structure learning
in Feedforward Neural Netwworks for regression problems. IEEE
Transactions on Neural Networks, vol. 8, no. 3, pp. 630-645, 1997.
[3] Ash, T., Dynamic node creation. Connection Science, vol. 1, no. 4, pp.
365-375, 1989.
[4] Hirose, Y., Yamashita, K., Hijiya, S., Back-propagation algorithm which
varies the number of hidden units. Neural Networks, vol. 4, pp. 61-66,1991.
[5] Azimi-Sadjadi, M. R., Sheedvash, S., Trujillo, F. O., Recursive dynamic
node creation in Multilayer Neural Networks. IEEE Transactions on Neural
Networks, vol. 4, no. 2, pp. 242-256, 1993.
[6] Setiono, R., Hui, L. C. K., Use of Quasi-Newton method in a Feedforward
neural network construction algorithm. IEEE Transactions on Neural
Networks, vol. 6, no. 1, pp. 273-277, 1995.
[7] Kwok, T.Y., Yeung, D.Y., Objective functions for training new hidden
units in constructive neural networks. IEEE Transactions on Neural
Networks, vol. 8, no. 5, pp. 1131-1148, 1997.
[8] Ji, C., Psaltis, D., Network synthesis through data-driven growth and
decay. Neural Networks, vol. 10, no. 6, pp. 1133-1141, 1997.
[9] Khorasani, K., Weng, W., Structure adaptation in feed-forward neural
networks. Proceedings of IEEE International Conference on Neural
Networks, vol. 3, pp. 1403-1408, 1994.
[10] Weng, W., Khorasani, K., An adaptive structure neural networks with
application to EEG automatic seizure detection. Neural Networks, vol. 9,
no. 7, pp. 1223-1240, 1996.
[11] Engelbrecht, A.P., Cloete, I., A sensitivity analysis algorithm for pruning
feedforward neural networks. Proceedings of the International Conference
on Neural Networks, vol 2, pp. 1274-1277, 1996.
[12] Gosh, J., Tumer, K., Structural adaptation and generalization in supervised
feedforward networks. Journal of Artificial Neural Networks, vol. 1, no. 4,
pp. 431-458, 1994.
[13] Hagiwara, M., A simple and effective method for removal of hidden units
and weights. Neurocomputing, vol. 6, pp. 207-218, 1994.
[14] Hagiwara, M., Backpropagation with selection-reduction of learning time
and elimination of hidden units. Systems and Computers in Japan, vol. 23,
no. 8, pp 46-54, 1992.
[15] Kamimura, R., Principal Hidden unit analysis with minimum entropy
method. Proceedings of the International Conference on Artificial Neural
Networks, pp. 760-763. 1993.
[16] Kamimura, R., Principal Hidden unit analysis generation of simple
networks by minimum entropy method. Proceedings of 1993 International
Joint Conference on Neural Networks, pp. 317-320, 1993.
[17] Kurita, T., H-Asoh, Umeyama, S., Akaho, S., Hosomi, A., A structural
learning by adding independent noises to hidden units. Proceedings of IEEE
International Conference on Neural Networks, vol. 1, pp. 275-278, 1994.

- 199 -

4.6. BIBLIOGRAFA DEL CAPTULO

[18] Lim, S.F., Ho, S.B., Dynamic creation of hidden units with selective
pruning in Backpropagation. World Congress on Neural Networks, vol. 3,
pp. 492-497, 1994.
[19] Yasui, S., Convergence suppression and divergence facilitation: Minimum
and joint use of hidden units by multiple outputs. Neural Networks, vol. 10,
no. 2, pp. 353-367, 1997.
[20] Bartlett, E. B., A dynamic node architecture scheme for layered neural
networks. Journal of Artificial Neural Networks, vol. 1, no. 2, pp. 229-245,
1994.
[21] Bartlett, E. B., Dynamic node architecture learning: An information
theoretic approach. Neural Networks, vol. 7, no. 1, pp. 129-140, 1994.
[22] Matsunaga, Y., Nakade, Y, Yamakawa, O., Murase, K., A Backpropagation
algorithm with automatic reduction of association units in Multilayered
Neural Network. Proceedings of the International Joint Conference on
Neural Networks, pp. 783-788, 1991.
[23] Andersen, T., Martinez, T., Cross Validation and MLP Architecture
Selection. International Joint Conference on Neural Networks (IJCNN99).
1999.

- 200 -

4.7. APNDICE DEL CAPTULO

4.7. Apndice del Captulo


Tabla 4. Fase de podado para redes construidas con mtodo de HIROSE.

Mtodo 1
Mtodo 2a
Mtodo 2b
Mtodo 2c
Mtodo 2d
Mtodo 2e
Mtodo 3
Mtodo 4
Mtodo 5
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 8c
Mtodo 8d
Mtodo 8e
Mtodo 9
Mtodo 10
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 12
Mtodo 13

BALANCE
Nhidden POR
1.3 (0.59) 87.90.6
1.7 (0.92) 87.60.6
1.43 (0.86) 87.60.6
1.33 (0.55) 87.70.6
1.3 (0.65) 87.70.6
1.3 (0.65) 87.70.6
1.3 (0.59) 87.90.6
1.23 (0.50) 87.80.6
1.3 (0.59) 87.90.6
1.6 (0.77) 88.20.7
1.3 (0.59) 87.90.6
1.53 (0.90) 87.60.6
1.53 (0.90) 87.60.6
1.27 (0.58) 87.70.6
1.23 (0.57) 87.60.6
1.23 (0.57) 87.60.6
1.2 (0.48) 87.80.7
1.3 (0.59) 87.90.6
1.83 (1.05) 87.70.6
1.8 (1.12) 87.70.6
1.7 (1.05) 87.70.6
1.73 (1.0) 87.70.6
1.87 (1.1) 87.60.6
1.87 (1.1) 87.60.6
1.87 (1.1) 87.60.6
1.83 (1.1) 87.60.6
1.6 (0.77) 88.20.7
1.3 (0.59) 87.90.6

BANDS
Nhidden POR
1.2 (0.55) 69.80.9
1.23 (0.67) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.55) 69.80.9
1.17 (0.46) 69.80.9
1.2 (0.55) 69.80.9
1.23 (0.67) 69.80.9
1.2 (0.55) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.61) 69.80.9
1.17 (0.46) 69.80.9
1.2 (0.55) 69.80.9
1.17 (0.46) 69.80.9
1.2 (0.55) 69.90.9
1.2 (0.55) 69.90.9
1.23 (0.68) 69.80.9
1.13 (0.43) 69.60.9
1.23 (0.68) 69.80.9
1.23 (0.68) 69.80.9
1.23 (0.68) 69.80.9
1.23 (0.67) 69.80.9
1.17 (0.46) 69.80.9

- 201 -

BUPA
Nhidden POR
1.57 (0.86) 67.01.1
2.26 (1.39) 66.91.2
2.07 (1.20) 67.31.2
1.57 (0.77) 67.01.2
1.5 (0.78) 67.01.1
1.5 (0.78) 67.01.1
1.57 (0.86) 67.01.1
1.63 (0.93) 67.01.1
1.57 (0.86) 67.01.1
2.5 (1.48) 66.81.1
1.57 (0.86) 67.11.1
1.83 (1.05) 67.11.2
1.4 (0.77) 67.11.1
1.53 (0.78) 67.11.1
1.5 (0.78) 67.01.1
1.5 (0.78) 67.01.1
1.87 (1.01) 67.11.1
1.57 (0.86) 67.01.1
2.23 (1.38) 66.91.1
2.37 (1.45) 66.81.2
2.33 (1.45) 66.51.2
2.43 (1.48) 65.51.1
2.27 (1.41) 66.31.1
2.37 (1.50) 66.31.2
2.4 (1.50) 66.71.2
2.37 (1.47) 66.21.1
2 (1.02) 67.21.2
1.57 (0.86) 67.01.1

CREDITO
Nhidden POR
1.6 (1.22) 85.50.5
1.63 (1.27) 85.60.5
1.53 (1.11) 85.60.5
1.6 (1.16) 85.60.5
1.6 (1.16) 85.50.5
1.6 (1.16) 85.50.5
1.6 (1.22) 85.50.5
1.6(1.22) 85.50.5
1.6 (1.22) 85.50.5
1.7 (1.37) 85.50.5
1.6 (1.22) 85.50.5
1.6 (1.24) 85.50.5
1.57 (1.14) 85.50.5
1.6 (1.16) 85.50.5
1.6 (1.16) 85.50.5
1.6 (1.16) 85.50.5
1.5 (1.01) 85.50.5
1.6 (1.22) 85.50.5
1.7 (1.37) 85.50.5
1.7 (1.37) 85.50.5
1.63 (1.30) 85.60.5
1.6 (1.16) 85.60.5
1.73 (1.41) 85.50.5
1.73 (1.41) 85.50.5
1.7 (1.37) 85.60.5
1.67 (1.32) 85.50.5
1.67 (1.32) 85.50.5
1.6 (1.22) 85.50.5

4.7. APNDICE DEL CAPTULO

Tabla 4. Fase de podado para redes construidas con mtodo de HIROSE.


(Continuacin).

Mtodo 1
Mtodo 2a
Mtodo 2b
Mtodo 2c
Mtodo 2d
Mtodo 2e
Mtodo 3
Mtodo 4
Mtodo 5
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 8c
Mtodo 8d
Mtodo 8e
Mtodo 9
Mtodo 10
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 12
Mtodo 13

DISPLAY1
Nhidden POR
7.53 (1.59) 72.40.3
8.23 (1.73) 72.30.3
7.8 (1.74) 72.20.3
7.33 (1.56) 72.40.3
7.53 (1.63) 72.30.3
7.53 (1.63) 72.30.3
7.5 (1.50) 72.30.3
7.47 (1.55) 72.30.3
7.53 (1.53) 72.30.3
8.37 (1.73) 72.30.3
7.57 (1.55) 72.30.3
8.13 (1.70) 72.30.3
7.47 (1.63) 72.30.3
7.4 (1.57) 72.30.3
7.47 (1.57) 72.40.3
7.57 (1.61) 72.40.3
7.17 (1.49) 72.30.3
7.5 (1.50) 72.30.3
8.37 (1.73) 72.30.3
8.37 (1.73) 72.30.3
8.37 (1.73) 72.30.3
8.37 (1.73) 72.30.3
8.37 (1.73) 72.30.3
8.37 (1.73) 72.30.3
8.37 (1.73) 72.30.3
8.37 (1.73) 72.30.3
7.73 (1.74) 72.30.3
7.6 (1.63) 72.30.3

GLASS
Nhidden POR
5.13 (1.70) 92.61.1
7.23 (3.61) 92.10.9
7.07 (3.63) 92.50.9
7 (3.66) 92.11.0
7.03 (3.64) 921.0
7.03 (3.64) 921.0
5.2 (1.61) 92.91.0
5.07 (1.60) 92.31.0
5.07 (1.60) 92.61.1
7.4 (3.53) 92.70.9
5.2 (1.58) 92.51.1
7.27 (3.59) 92.20.9
6.8 (3.74) 92.11.0
7 (3.66) 92.30.9
7.03 (3.64) 921.0
7.03 (3.64) 921.0
5.97 (3.41) 92.91.0
5.1 (1.67) 92.61.1
7.23 (3.60) 92.50.9
7.1 (3.49) 92.30.9
7.1 (3.45) 92.50.9
7.2 (3.42) 92.50.9
7.43 (3.5) 92.31.0
7.47 (3.47) 92.50.9
7.37 (3.40) 92.31.0
7.47 (3.47) 92.50.9
7.43 (3.53) 92.60.9
6.57 (3.63) 92.30.9

- 202 -

HEART
Nhidden POR
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.07 (0.37) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.07 (0.37) 82.10.8
1.07 (0.37) 82.10.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8

IMAGEN
Nhidden POR
8.23 (3.53) 94.40.3
9.53 (3.55) 94.20.3
8.83 (3.67) 94.30.3
8.57 (3.80) 94.30.3
8.43 (3.82) 94.40.3
8.43 (3.82) 94.40.3
8.37 (3.43) 94.30.3
8.2 (3.46) 94.30.3
8.27 (3.49) 94.30.3
9.5 (3.54) 94.20.3
8.23 (3.51) 94.30.3
9.37 (3.62) 94.20.3
8.83 (3.85) 94.20.3
8.2 (3.81) 94.50.3
8.37 (3.76) 94.50.3
8.37 (3.77) 94.50.3
8 (3.24) 94.70.3
8.3 (3.47) 94.30.3
9.47 (3.53) 94.20.3
9.53 (3.55) 94.20.3
9.53 (3.55) 94.20.3
9.53 (3.55) 94.20.3
9.53 (3.55) 94.20.3
9.53 (3.55) 94.20.3
9.53 (3.55) 94.20.3
9.53 (3.55) 94.20.3
9.43 (3.53) 94.30.4
8.4 (3.38) 94.30.3

4.7. APNDICE DEL CAPTULO

Tabla 4. Fase de podado para redes construidas con mtodo de HIROSE.


(Continuacin).

Mtodo 1
Mtodo 2a
Mtodo 2b
Mtodo 2c
Mtodo 2d
Mtodo 2e
Mtodo 3
Mtodo 4
Mtodo 5
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 8c
Mtodo 8d
Mtodo 8e
Mtodo 9
Mtodo 10
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 12
Mtodo 13

MOK1
Nhidden POR
3.47 (0.97) 95.30.9
4.27 (1.22) 95.70.9
4.13 (1.31) 94.81.1
4.27 (1.28) 95.30.9
4.23 (1.25) 95.30.9
4.23 (1.25) 95.30.9
3.43 (0.89) 95.30.9
3.3 (0.65) 95.30.9
3.5 (1.04) 95.30.9
4.23 (1.28) 95.30.9
3.5 (1.04) 95.30.9
4.33 (1.27) 95.30.9
4.13 (1.31) 95.30.9
4.2 (1.24) 95.30.9
4.23 (1.25) 95.30.9
4.23 (1.25) 95.30.9
3.3 (0.70) 95.30.9
3.46 (0.97) 95.30.9
4.23 (1.22) 95.30.9
4.2 (1.16) 95.30.9
4.3 (1.24) 95.30.9
4.33 (1.27) 95.30.9
4.23 (1.17) 95.30.9
4.2 (1.19) 95.30.9
4.3 (1.24) 95.30.9
4.33 (1.27) 95.30.9
3.7 (0.99) 95.30.9
3.53 (0.78) 95.30.9

MOK2
Nhidden POR
2.63 (1.22) 74.70.9
2.93 (1.34) 74.50.8
2.87 (1.22) 75.40.8
2.77 (1.14) 75.00.8
2.83 (1.23) 75.30.8
2.83 (1.23) 75.30.8
2.67 (1.18) 75.10.9
2.67 (1.21) 74.70.9
2.67 (1.21) 74.60.9
2.93 (1.17) 76.10.8
2.67 (1.21) 74.60.9
2.83 (1.21) 75.20.8
2.8 (1.16) 75.20.8
2.73 (1.11) 75.30.8
2.83 (1.23) 75.30.8
2.83 (1.23) 75.30.8
2.57 (0.97) 74.90.8
2.63 (1.22) 74.70.9
2.93 (1.28) 75.30.8
3.07 (1.39) 74.60.9
3.17 (1.49) 74.60.9
3.17 (1.49) 74.60.9
3.1 (1.34) 75.20.8
3.1 (1.42) 74.80.9
3.17 (1.49) 74.60.9
3.17 (1.49) 74.60.9
2.77 (1.30) 74.70.8
2.73 (1.23) 75.10.8

- 203 -

VOTING
Nhidden POR
1 (0)
95.30.4
1.03 (0.18) 95.20.4
1.03 (0.18) 95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1.07 (0.25) 95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1.03 (0.18) 95.30.4
1.03 (0.18) 95.30.4
1.07 (0.25) 95.30.4
1.07 (0.25) 95.30.4
1.07 (0.25) 95.30.4
1.03 (0.18) 95.30.4
1.03 (0.18) 95.30.4
1 (0)
95.30.4

4.7. APNDICE DEL CAPTULO

Tabla 5. Fase de podado para redes construidas con mtodo de KHORASANI.

Mtodo 1
Mtodo 2a
Mtodo 2b
Mtodo 2c
Mtodo 2d
Mtodo 2e
Mtodo 3
Mtodo 4
Mtodo 5
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 8c
Mtodo 8d
Mtodo 8e
Mtodo 9
Mtodo 10
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 12
Mtodo 13

BALANCE
Nhidden POR
2.43 (1.72) 87.60.6
2.5 (1.78) 87.60.6
2.37 (1.67) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
1.87 (1.07) 88.20.6
2.43 (1.72) 87.60.6
2.57 (1.81) 87.60.6
2.57 (1.81) 87.60.6
2.53 (1.79) 87.70.6
2.5 (1.74) 87.60.6
2.63 (1.81) 87.60.6
2.63 (1.81) 87.60.6
2.63 (1.81) 87.60.6
2.5 (1.74) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6

BUPA
Nhidden POR
1.43 (0.82) 65.81.1
1.53 (0.97) 65.41.2
1.43 (0.82) 65.41.2
1.47 (0.90) 65.81.1
1.43 (0.82) 65.81.1
1.43 (0.82) 65.81.1
1.43 (0.82) 65.81.1
1.43 (0.82) 65.81.1
1.43 (0.82) 65.81.1
1.43 (0.82) 65.81.1
1.43 (0.82) 65.81.1
1.53 (1.01) 66.01.1
1.4 (0.77) 65.91.1
1.4 (0.77) 65.81.1
1.43 (0.82) 65.81.1
1.43 (0.82) 85.81.1
1.4 (0.86) 65.81.2
1.43 (0.82) 65.81.1
1.5 (0.90) 65.51.2
1.63 (1.07) 65.51.2
1.63 (1.07) 65.11.2
1.7 (1.09) 65.51.2
1.67 (1.09) 65.51.2
1.7 (1.09) 65.51.2
1.7 (1.09) 65.51.2
1.63 (1.07) 65.51.2
1.43 (0.82) 65.81.1
1.43 (0.82) 65.81.1

- 204 -

CREDITO
Nhidden POR
1.33 (0.84) 85.30.5
1.23 (0.68) 85.40.6
1.37 (0.89) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.80) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.3 (0.70) 85.30.5
1.33 (0.84) 85.30.5
1.3 (0.70) 85.30.5
1.33 (0.80) 85.30.5
1.3 (0.79( 85.50.5
1.37 (0.89) 85.30.5
1.4 (0.97) 85.20.5
1.37 (0.89) 85.30.5
1.37 (0.89) 85.30.5
1.37 (0.89) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5

DISPLAY1
Nhidden POR
3.13 (0.73) 34.10.6
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.2 (0.85) 34.00.6
3.17 (0.75) 34.10.6
3.17 (0.75) 34.10.6
3.13 (0.73) 34.10.6
3.13 (0.73) 34.10.6
3.13 (0.73) 34.10.6
3.13 (0.73) 34.10.6
3.13 (0.73) 34.10.6
3.5 (0.78) 33.90.5
3.13 (0.73) 34.50.7
3.17 (0.75) 34.00.6
3.13 (0.73) 34.10.6
3.13 (0.73) 34.10.6
2.67 (0.47) 592
3.13 (0.73) 34.10.6
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.13 (0.73) 34.10.6
3.13 (0.73) 34.10.6

4.7. APNDICE DEL CAPTULO

Tabla 5. Fase de podado para redes construidas con mtodo de KHORASANI.


(Continuacin).

Mtodo 1
Mtodo 2a
Mtodo 2b
Mtodo 2c
Mtodo 2d
Mtodo 2e
Mtodo 3
Mtodo 4
Mtodo 5
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 8c
Mtodo 8d
Mtodo 8e
Mtodo 9
Mtodo 10
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 12
Mtodo 13

GLASS
Nhidden
POR
4.03 (1.61) 75.01.4
4.6 (1.52) 74.51.4
4.33 (1.42) 74.61.4
4.07 (1.60) 75.01.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
4.6 (1.63) 74.71.4
4.23 (1.57) 75.11.4
4 (1.60) 75.11.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
3.2 (1.30) 84.11.6
4.03 (1.61) 75.01.4
4.5 (1.57) 74.41.42
4.67 (1.58) 74.41.5
4.77 (1.59) 74.51.4
4.77 (1.59) 74.51.4
4.7 (1.51) 74.51.4
4.63 (1.61) 74.81.5
4.77 (1.59) 74.51.4
4.77 (1.59) 74.51.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4

HEART
Nhidden
POR
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (01.8) 82.10.8
1.03 (0.18) 82.10.8
1 (0)
82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8

- 205 -

IMAGEN
Nhidden
POR
5.13 (0.78) 54.20.7
5.47 (0.63) 54.80.7
5.33 (0.71) 54.80.7
5.23 (0.73) 54.40.7
5.2 (0.76) 54.20.7
5.2 (0.76) 54.20.7
5.13 (0.78) 54.20.7
5.13 (0.78) 54.20.7
5.13 (0.78) 54.20.7
5.13 (0.78) 54.20.7
5.13 (0.78) 54.20.7
5.07 (0.69) 53.60.5
5.07 (0.69) 53.60.5
5.17 (0.83) 54.20.7
5.13 (0.78) 54.20.7
5.13 (0.78) 54.20.7
4.5 (0.63) 87.21.4
5.13 (0.78) 54.20.7
5.5 (0.63) 54.80.7
5.5 (0.63) 54.80.7
5.5 (0.63) 54.80.7
5.5 (0.63) 54.80.7
5.5 (0.63) 54.80.7
5.5 (0.63) 54.80.7
5.5 (0.63) 54.80.7
5.5 (0.63) 54.80.7
5.13 (0.78) 54.20.7
5.13 (0.78) 54.20.7

4.7. APNDICE DEL CAPTULO

Tabla 5. Fase de podado para redes construidas con mtodo de KHORASANI.


(Continuacin).

Mtodo 1
Mtodo 2a
Mtodo 2b
Mtodo 2c
Mtodo 2d
Mtodo 2e
Mtodo 3
Mtodo 4
Mtodo 5
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 8c
Mtodo 8d
Mtodo 8e
Mtodo 9
Mtodo 10
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 12
Mtodo 13

MOK1
Nhidden
POR
1.57 (0.82) 76.40.7
2.97 (1.56) 76.30.7
1.97 (1.47) 76.30.7
1.73 (1.28) 76.30.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
2.2 (1.40) 76.40.7
2.07 (1.28) 76.30.7
1.47 (0.68) 76.40.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
1.73 (1.11) 76.40.7
1.57 (0.82) 76.40.7
2.9 (1.42) 76.00.7
2.97 (1.50) 76.30.7
3.07 (1.53) 75.90.8
3.23 (1.50) 76.30.7
3.1 (1.49) 76.30.7
3.07 (1.53) 76.30.7
3.17 (1.49) 75.90.8
3.23 (1.50) 76.30.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7

MOK2
Nhidden
POR
1.97 (1.19) 66.20.5
2.23 (1.30) 66.20.5
2.07 (1.26) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
2.17 (1.26) 66.20.5
2.07 (1.20) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.6 (0.67) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.16) 65.70.7
1.87 (1.14) 66.20.5
1.97 (1.27) 66.20.5
1.93 (1.23) 66.20.5
2.2 (1.30) 66.20.5
2 (1.26) 65.60.8
1.93 (1.23) 65.70.8
2.03 (1.33) 65.90.6
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5

- 206 -

VOTING
Nhidden
POR
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.13 (0.57) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.2 (0.76) 95.30.4
1.2 (0.76) 95.30.4
1.2 (0.76) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.2 (0.76) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4

Captulo 5

ESTUDIO DE LA INFLUENCIA EN LA CAPACIDAD DE


GENERALIZACIN DE LA RED DEL NMERO DE CAPAS
OCULTAS
5.1. Descripcin del Problema
5.2. Arquitectura Multilayer Feedforward con
dos capas ocultas
5.3. Metodologa
5.4. Desarrollo Experimental
5.5. Conclusiones
5.6. Bibliografa del Captulo

5.1. Descripcin del Problema


En este captulo presentaremos una comparacin experimental de la
capacidad de generalizacin de las redes neuronales Multilayer Feedforward con
una y dos capas ocultas.
Veamos en primer lugar cul es el inters de esta investigacin.
Algunos autores se plantearon si habra alguna ventaja en el uso de ms de
una capa oculta en la arquitectura de la red. Una de las preguntas ms importantes
planteadas es si esto afecta a la capacidad de generalizacin de la red.
En la bibliografa [1] hay un teorema sobre redes neuronales que garantiza
que una red perceptrn con una capa oculta, puede resolver cualquier problema, si
tiene un nmero adecuado de neuronas en dicha capa. Por ello, no es en modo
alguno necesario utilizar una segunda capa en la estructura de la red.

- 207 -

5.1. DESCRIPCIN DEL PROBLEMA

Sin embargo, sigue siendo un problema discutido por todos, qu


arquitectura se debe usar. Por ejemplo, no se sabe si la arquitectura de dos capas
ocultas tendr mejor capacidad de generalizacin que la de una capa oculta o si
podemos encontrar un modelo simple, es decir, con menor nmero de pesos
teniendo la misma eficiencia mediante el uso de una red de dos capas ocultas.
Por ello, hemos decidido realizar una revisin bibliogrfica sobre este tema
y ver que conclusin podemos sacar a partir de las diferentes contribuciones.
En [2], Babri y Tong presentan una investigacin sobre cmo afecta a la
sensibilidad de salida de la red una perturbacin en los pesos para redes
Multilayer Feedforward con una sola capa oculta y con dos.
La conclusin de esa investigacin, era que durante el estado inicial de
aprendizaje, la sensibilidad de la red con dos capas ocultas era mayor que para la
de una sola capa y se puede llegar a un aprendizaje inestable.
Para resolver este problema se proponen dos mtodos: una apropiada
inicializacin de los pesos y la modificacin de la funcin de transferencia.
En [3], se muestra que en una red Feedforward de tres capas (entrada, salida
y oculta) con N-1 unidades ocultas, se pueden representar exactamente N
relaciones entrada-objetivo y con una red de 4 capas, podemos hacer lo mismo
con un pequeo error usando solo (N/2)+3 unidades ocultas. Con estos resultados
se podra pensar que es mejor una red de cuatro capas, ya que con menos neuronas
y pesos se puede conseguir prcticamente el mismo resultado.
En [4], se realiza una comparacin entre perceptrones de una y dos capas en
el contexto de aproximacin funcional de funciones no lineales, en concreto la
correspondencia entre variables de control de automviles y parmetros de
representacin. La comparacin es llevada a cabo para redes con el mismo
nmero de unidades en la capa oculta. En el artculo se concluye que una red con
4 capas (2 capas ocultas) con ms neuronas en la primera capa oculta que en la
segunda, tiene mejor eficiencia que la de tres capas (solo una oculta).
En [5] y [6], hemos encontrado dos comparaciones experimentales de la
capacidad de generalizacin de redes neuronales Multilayer Feedforward con una
o dos capas ocultas. La comparacin se hizo con problemas de clasificacin. En
[6], los problemas usados para el test tenan datos artificiales de distribuciones de
gausianas. En [6] se concluye que la eficiencia del perceptrn de una y dos capas
ocultas es similar. Sin embargo, en las redes con 4 capas (2 capas ocultas) es ms
probable alcanzar un mnimo local. En la referencia [5], se utilizaron dos
problemas para realizar el test, la clasificacin entre 12 nmeros chinos y la

- 208 -

5.1. DESCRIPCIN DEL PROBLEMA

clasificacin entre 10 nmeros arbicos. En este caso la conclusin fue que la


eficiencia de un perceptrn con una capa oculta es mejor que la del perceptron con
dos capas ocultas.
Como vemos, los resultados que se obtienen en las diferentes
investigaciones son contradictorios. En [6], la eficiencia es similar, en [4] la
eficiencia de una red con dos capas ocultas es mejor que la eficiencia de una red
de una capa oculta, y finalmente en [5] se obtiene lo contrario (la de una capa
mejor que la de dos).
Sin embargo, nosotros pensamos que los resultados experimentales
presentados en [4] y [5] son exiguos, ya que es muy difcil obtener buenas
conclusiones usado slo simulaciones en uno o dos problemas.
Finalmente, en todas las referencias las redes de tres y cuatro capas
utilizadas tienen la misma complejidad, es decir, el mismo nmero de pesos o
neuronas. Nosotros creemos que sta no es una buena comparacin ya que la tarea
del diseador de la red neuronal es encontrar la mnima red que resuelva bien el
problema.
Una apropiada comparacin debera comparar la mnima red de una capa
oculta, con la mnima red de dos capas ocultas.
Uno de los primeros objetivos de esta investigacin ser encontrar la
mnima red de cada caso, con una capa oculta y con dos. Entendemos como red
mnima aquella que suministra mayor eficiencia (capacidad de generalizacin)
con una estructura mnima.
Basndonos en esta idea, queremos en esta investigacin determinar la
capacidad de generalizacin de una red mnima Multilayer Feedforward de tres
capas (una capa oculta), en comparacin con una red, tambin mnima, de cuatro
capas (dos capas ocultas), y concluir si la introduccin de una capa adicional
puede reportar alguna ventaja a la hora de resolver un problema.

- 209 -

5.2. ARQUITECTURA MULTILAYER FEEDFORWARD CON DOS CAPAS OCULTAS

5.2. Arquitectura Multilayer Feedforward con dos


capas ocultas
En el primer captulo, se describi la arquitectura de red neuronal Multilayer
Feedforward con una sola capa oculta. En este captulo necesitamos generalizar
las ecuaciones para el caso de utilizar dos capas ocultas en la red. Lo realizaremos
de forma breve a lo largo de este apartado.
Llamemos a los vectores de salida de las diferentes capas como sigue.
Capa de entrada

{i1 , i 2 , L , i N } = {io1 , io 2 , L , io N } = {a1 , a 2 , L , a N }

1 Capa oculta

{h1o1 , h1o2 ,L, h1o Nh } = { f (h1i1 ), f ( h1i 2 ),L , f (h1i Nh )}

2 Capa oculta

{h 2o1 , h 2o2 ,L, h 2o Nh } = { f ( h 2i1 ), f ( h 2i2 ),L, f (h 2i Nh )}

Capa de salida

{oo1 , oo 2 , L , oo Ns } = { f (oi1 ), f (oi 2 ), L , f (oi Ns )}

La entrada a una neurona j de la primera capa oculta vendr dada por:


h1i j =

wiij ai + q j

(5.1)

i =1

La entrada a una neurona m de la segunda capa oculta ser:


Nh1

h 2im = wh1 jm h1o j + x 1m

(5.2)

j =1

La entrada a una neurona k de la capa de salida se determinar por:


oik =

Nh 2

wh2 mk h 2om + x 2 k

(5.3)

m =1

Las salidas de las diferentes capas se pueden escribir utilizando la funcin


de transferencia sigmoide.
Para la primera capa oculta:
1

h1o j = f ( h1i j ) =

1 + exp( -h1i j )

(5.4)

Para la segunda capa oculta:


h 2om = f (h 2im ) =

1
1 + exp( -h 2im )

- 210 -

(5.5)

5.2. ARQUITECTURA MULTILAYER FEEDFORWARD CON DOS CAPAS OCULTAS

Y para la salida:
ook =

(5.6)

1 + exp( -oik )

Las ecuaciones de modificacin de los pesos sern:

E P
Dwh 2 m,k (t + 1) = h wh 2
m ,k

E P
Dwh1 j ,m (t + 1) = h wh1
j ,m

E P
Dwii , j (t + 1) = h wi
i, j

+ b Dwh 2 m,k (t )

(5.7)

+ b Dwh1 j ,m (t )

+ b Dwii , j (t )

Calculamos ahora las diferentes derivadas.


E P
wh 2 m,k

E P

oo P,k

oo P,k
oi P ,k

oi P ,k
wh 2 m,k

(5.8)

El primer y segundo trmino, igual que en el captulo 1, se pueden calcular


mediante las ecuaciones:
EP
ooP ,k
ooP ,k
oiP, k

= -(t P ,k - ooP ,k )

(5.9)

= ooP ,k (1 - ooP, k )

El ltimo trmino ser:


oi P ,k
wh 2 m,k

(5.10)

= h 2o P,m

Sustituyendo:
d P,k = - ( t P ,k - oo P ,k ) oo P,k (1 - oo P ,k )
E P
wh 2 m ,k

(5.11)

= d P ,k h 2o P ,k

Por otra parte, la derivada para los pesos de la otra capa oculta ser:
E P
wh1 j ,m

oo P
k

P ,k

oo P ,k
oi P ,k

- 211 -

oi P ,k
wh1 j ,m

(5.12)

5.2. ARQUITECTURA MULTILAYER FEEDFORWARD CON DOS CAPAS OCULTAS

El primer y segundo trmino, se obtienen de (5.9). El tercer trmino ser:


oi P,k
wh1 j ,m

oi P ,k
h 2o P ,m

h 2o P,m h 2i P,m

= wh 2 m,k h 2o P ,m (1 - h 2o P,m ) h1o P, j


h 2i P ,m wh1 j ,m

(5.13)

Sustituyendo quedar finalmente:


E P
wh1 j ,m

= { P ,k wh 2 m,k h2o P,m (1 - h2o P ,m ) h1o P, j }

(5.14)

h1 P,m = P ,k wh 2 m,k h2o P,m (1 - h2o P ,m )


k

E P
wh1 j ,m

= h1 P,m h1o P , j

Para la ltima derivada respecto de los pesos de entrada tendremos:


E P

wii , j

oo P
k

P ,k

oo P ,k oi P ,k

oi P ,k wii , j

(5.15)

La ltima derivada se calcular mediante la siguiente ecuacin:


oi P ,k
wii , j

oi P ,k
h 2o P ,m

h 2o P,m h 2i P ,m h1o P,, h1i P, j

h 2i P,m h1o P , j h1i P, j wii , j

(5.16)

Sustituyendo:
oi P ,k
wii , j

= wh 2 m,k h2o P ,m (1 - h 2o P ,m ) wh1 j ,m h1o P , j (1 - h1o P , j ) a P ,i

(5.17)

Y queda finalmente:
h2 P, j = h1P ,m wh1 j ,m h1o P, j (1 - h1o P, j )

E P
wii , j

(5.18)

= h2 P, j a P ,i

Las ecuaciones finales de las derivadas sern:


E P
wh 2 m,k
E P
wh1 j ,m
E P
wii , j

= P, k h 2o P ,k
= h1 P,m h1o P , j

= h2 P, j a P ,i

- 212 -

(5.19)

5.2. METODOLOGA

5.2. Metodologa
Se han seleccionado 16 problemas para realizar la comparacin. Los
problemas se encuentran en el UCI repository of machine learning databases, y
ya fueron descritos en el primer captulo.
Los problemas utilizados son: Abalone (AB), Balance Scale Weight &
Distance (BL), Cylinder Bands (BN), BUPA Liver Disorders (BU), Credit
Approval (CR), Display1 (D1), Display2 (D2), Glass Identification (GL), Heart
Disease (HE), Image Segmentation (IM), The Monks Problems (M1, M2),
Mushroom (MM), Musk (MK), Pima Indians Diabetes (PI), Voting Records (VO).
Para cada problema hemos obtenido el mnimo perceptrn de una capa
oculta mediante un proceso de prueba y error, y usado cros-validacin para hallar
tanto el nmero de unidades ptimo como el punto de convergencia.
Tambin hemos obtenido la red mnima para el caso de dos capas ocultas y
hemos utilizado el mismo proceso que antes, utilizando una bsqueda exhaustiva
entre las estructuras con N nodos ocultos en la primera capa, y dos nodos ocultos
en la segunda capa y viceversa, es decir dos nodos ocultos en la primera capa
oculta y N nodos en la segunda, donde N es el nmero de nodos ocultos mnimo
para la red de una sola capa oculta.
En algunos casos, hemos encontrado diferentes candidatos con similar
eficiencia (calculada con cros-validacin) para la estructura de la red mnima, en
estos casos hemos tomado varias redes candidatas.
Para el caso de dos capas ocultas en la red, hemos utilizado la sugerencia de
la referencia [2] para acelerar y estabilizar la convergencia, es decir, hemos
modificado la funcin de transferencia para las neuronas de salida usando la
ecuacin (5.20) con x=0.02.
f ( x) =

1- 2
1 + e- x

(5.20)

Los pesos iniciales estn uniformemente distribuidos en un intervalo de


anchura 0.2 y centrado en -0.5 y +0.5, tal y como se recomienda en [2].
Puesto que la modificacin de la funcin de trasferencia es muy pequea, no
hemos utilizado la ecuacin (5.20) en el clculo de la variacin del error,
solamente hemos aplicado la ecuacin al calcular la nueva salida de la red
neuronal.

- 213 -

5.2. METODOLOGA

El algoritmo de entrenamiento utilizado para los dos tipos de redes fue el de


Backpropagation. En el primer captulo, se encuentran las ecuaciones de
Multilayer Feedforward con Backpropagation para el caso de una sola capa
oculta, y en el apartado 5.2 de este captulo para la estructura de dos capas ocultas.
Una vez obtenida la estructura mnima, hemos entrenado para cada
problema 10 redes, tanto para los casos de una capa oculta como para los de dos
capas ocultas. Cada red tena una inicializacin y una particin diferente de datos
en los conjuntos de entrenamiento, cros-validacin y test. Como siempre hemos
promediado estos valores obteniendo el resultado con un error (suficientemente
pequeo), logrando al mismo tiempo que los resultados no dependan de las
condiciones de inicializacin de la red.
En el apartado de resultados experimentales se muestran los resultados de
las diferentes redes seleccionadas para los 16 problemas.

- 214 -

5.3. DESARROLLO EXPERIMENTAL

5.3. Desarrollo Experimental


Como hemos dicho antes mediante un proceso de prueba y error se han ido
seleccionando las diferentes redes tanto para una capa oculta como para dos.
En el caso de una sola capa oculta, se entrenaron con Backpropagation
varias redes con diferente nmero de unidades en la capa oculta. Utilizando el
mtodo de prueba y error, se estim el punto de convergencia de las redes
mediante cros-validacin y porcentaje de correcta clasificacin de crosvalidacin. Para cada problema escogimos aquella arquitectura de red que
proporcionaba un mayor porcentaje de correcta clasificacin de cros-validacin.
Una vez seleccionadas las arquitecturas se entrenaron 10 redes de cada, con
diferente inicializacin de pesos y particiones de datos entre conjunto de
entrenamiento, cros-validacin y test. De nuevo escogimos el punto de
convergencia utilizando cros-validacin y realizamos el test promediando los
resultados para obtener una eficiencia media y un error. En la Tabla 2 se
muestran los resultados obtenidos.
Para encontrar las arquitecturas idneas para el caso de dos capas ocultas
partimos inicialmente de una serie de estructuras variando el nmero de unidades
de las capas ocultas.
Es decir, partimos por ejemplo de una estructura con Ninput neuronas en la
capa de entrada, Noutput neuronas en la capa de salida (estas las fijan los
problemas en cuestin), y Nh1 unidades en la primera capa oculta y Nh2 unidades
en la segunda capa oculta.
Hemos entrenado todas las combinaciones de Nh1 y Nh2 con un valor
mayor o igual a dos y menor o igual que Nh (unidades ocultas), que es el valor
obtenido para la red de una sola capa oculta. Los valores de Nh1 y Nh2 se
encuentran en la Tabla 1.
Tabla 1. Estructura iniciales usadas para dos capas ocultas.
Nh1-Nh2
2-2
2-3
2-4
.......
2-Nh

Nh1-Nh2
3-2
3-3
3-4
.......
3-Nh

Nh1-Nh2
4-2
4-3
4-4
.......
4-Nh

- 215 -

Nh1-Nh2
.......
.......
.......
.......
.......

Nh1-Nh2
Nh -2
Nh -3
Nh -4
.......
Nh -Nh

5.3. DESARROLLO EXPERIMENTAL

Utilizando tambin la metodologa de prueba y error, calculamos la


arquitectura adecuada para cada problema. En el caso de que encontrramos
diferentes estructuras con similar eficiencia se escogan todas las candidatas.
Despus entrenamos 10 redes con Backpropagation utilizando diferente
inicializacin de pesos y particiones de datos. Medimos el punto de convergencia
de dichas redes usando cros-validacin y despus la eficiencia en el test.
Obtuvimos la media de la eficiencia de las 10 redes con un error.
En la Tabla 2 se muestran tambin los resultados obtenidos para las
arquitecturas de dos capas ocultas
En la Tabla 2, tenemos los resultados experimentales obtenidos. En ella
hemos indicado para los diferentes problemas la estructura utilizada, el nmero
parmetros libres de la misma (pesos y thresholds) y el valor promedio del
porcentaje de correcta clasificacin con su error, tanto para redes con una sola
capa oculta, como para redes con dos capas ocultas.
Tabla 2. Resultados Experimentales.
Base
Una Capa Oculta
de Arquitectura Nmero de Porcentaje
Datos
Pesos
Clasificacin

Base
Dos Capas Ocultas
de Arquitectura Nmero de Porcentaje
Datos
Pesos
Clasificacin

AB
BL
BN
BU

8-17-3
4-6-3
39-13-2
6-8-2

207
51
506
74

50 5
58 9
68.2 1.3
68.3 1.6

AB
BL
BN
BU

CR

15-9-2

164

86.6 0.6

CR

D1
D2

7-15-10
14-21-10

280
535

71.9 1.3
70.9 0.8

D1
D2

GL
HE
IM
M1

10-6-6
13-6-2
19-13-7
6-5-2

108
98
358
47

78.9 1.1
80.6 0.9
91.0 0.5
73.6 1.1

GL
HE
IM
M1

M2
MM
MK

6-14-2
22-10-2
166-7-2

128
252
1185

66.3 0.9
97.6 0.3
93.1 0.3

M2
MM
MK

PI

8-15-2

167

95.9 0.6

PI

VO

16-13-2

249

94.5 0.2

VO

- 216 -

8-2-4-3
4-3-3-3
39-3-2-2
6-7-4-2
6-6-7-2
15-5-3-2
15-6-2-2
7-6-6-10
14-13-10-10
14-17-7-10
14-20-4-10
10-2-4-6
13-3-3-2
19-7-5-7
6-3-5-2
6-5-3-2
6-6-4-2
22-2-2-2
166-2-5-2
166-4-2-2
8-14-4-2
8-9-9-2
16-2-4-2

45
39
134
91
107
106
116
160
445
461
434
64
62
222
53
61
80
58
361
684
196
191
56

50 3
74 7
69 1
63 3
61 3
81 4
84 3
54 8
62 6
69.6 0.7
50 9
52 6
71 4
73 2
77 5
78 4
68.1 1.5
83 5
89 1.6
89.0 1.9
73 1
74 1
94 1

5.3. DESARROLLO EXPERIMENTAL

En la Tabla 2, vemos que el nmero de parmetros libres de la red mnima


depende del problema pero es usualmente menor en el caso de redes con dos
capas ocultas. Encontramos este resultado en 13 de los 16 problemas, en concreto
en: AB, BL, BN, D1, D2, CR, GL, HE, IM, M2, MM, MK y VO. La estructura
mnima de dos capas ocultas suele tener una menor complejidad.
Podemos observar tambin que la capacidad de generalizacin en redes con
una capa oculta es en general mejor que en las redes de dos capas ocultas. Se
encuentran mejores resultados para redes con una sola capa oculta en 9 de los 16
problemas (BU, CR, D1, GL, HE, IM, MM, MK y PI), en 5 de los 16 problemas
la eficiencia obtenida es similar a la de redes con dos capas ocultas, y slo en 2 de
los 16 problemas encontramos mejores resultados para la red con dos capas
ocultas (BL y M2).
Tambin encontramos que la variabilidad de eficiencia en los resultados es
mayor en el caso de redes con dos capas ocultas. Por ejemplo, observando el error
vemos que este suele ser mayor en las redes con dos capas oculta que en las de
una.
Finalmente, en algunos problemas M1, MM y MK ha sido realmente difcil
encontrar 10 redes con dos capas ocultas que convergieran, por lo que fue
necesario entrenar muchas ms (con diferentes condiciones iniciales) hasta tener
las diez necesarias para los experimentos. Por ejemplo en MK se entrenaron 30
redes para encontrar 14 que convergieran, y en MM se entrenaron 39 redes para
obtener finalmente solo 10. Con esto concluimos que Backpropagation es ms
ineficiente en el caso de redes con dos capas ocultas.

- 217 -

5.4. CONCLUSIONES

5.4. Conclusiones
Hemos presentado en este captulo una comparacin experimental de la
capacidad de generalizacin de las redes Multilayer Feedforward con una sola
capa oculta y con dos capas ocultas.
Hemos usado un total de 16 problemas reales para poder medir la capacidad
generalizacin de ambas arquitecturas.
Realizamos una seleccin previa de las arquitecturas mnimas de cada tipo
para cada problema usando un procedimiento de prueba y error.
Se entrenaron 10 redes con una sola capa oculta y con dos, con el objetivo
de eliminar la dependencia con las condiciones iniciales en el entrenamiento y
encontrar un error en los resultados.
De nuestros resultados, podemos concluir que la capacidad de
generalizacin de una red con una capa oculta es en general mejor que en una red
con dos capas ocultas.
Por ello, pensamos que en general, con los algoritmos de entrenamiento
usados no es razonable utilizar redes con ms de una capa oculta.
Adems, hemos observado que para redes con ms de una capa oculta la
convergencia es bastante mala, hay algunos problemas en los que hemos tenido
gran dificultad en encontrar redes convergidas.
Los resultados de nuestra investigacin sobre este tema fueron publicados y
presentados en dos conferencias internacionales. En [10] y [11] tenemos las
referencias de dichas publicaciones.

- 218 -

5.5. BIBLIOGRAFA DEL CAPTULO

5.5. Bibliografa del Captulo


[1] Cybenko, George, Approximation by superposition of sigmoidal functions.
Mathematics of Control Signals, and Systems, vol. 2, pp. 303-314. 1989.
[2] Babri H.A., Tong Y., Deep Feedforward Networks: Application to Pattern
Recognition. Proceedings of the 1996 International Conference on Neural
Networks. 1996, vol. 3, pp. 1422-1426.
[3] Tamura S., Tateishi M., Capabilities of a Four-Layered Feedforward Neural
Network: Four Layers versus Three. IEEE Trans. on Neural Networks.
1997, vol. 8, no. 2, pp. 251-255.
[4] Xiao J., Chen Z., Cheng J., Structure Study of Feedforward Neural
Networks for Approximation of Highly Nonlinear Real-valued Functions.
Proceedings of 1996 International Conference on Neural Networks, vol. 1,
pp. 258-263, 1996.
[5] Saratchandran P., Effect of Hidden Layers on Generalization Properties of
Feedforward Neural Networks. Neural Parallel & Scientific Computations,
vol. 1, no. 2, pp. 227-240, 1993.
[6] Villiers J., Bernard E., Backpropagation Neural Nets with One and Two
hidden Layers. IEEE Transactions on Neural Networks, vol. 4, no. 1, pp.
136-141, 1992.
[7] Yu X., Chen G., Cheng S., Dynamic Learning Rate Optimization of the
Backpropagation Algorithm. IEEE Transactions on Neural Networks, vol.
6, no. 3, pp. 669-677, 1995
[8] Yamasaki, Masami, The Lower Bound of the Capacity for a Neural
Network with Multiple Hidden Layers. Proceedings of the World Congress
on Neural Networks (WCNN93), vol. 3, pp. 544-547, 1993.
[9] Cosnard M., Koiran P., Paugam-Moisy H., A Step Toward the Frontier
between One-Hidden-Layer and Two-Hidden Layer Neural Networks.
Proceedings of 1993 International Conference on Neural Networks, vol. 3,
pp. 2292-2295, 1993.
[10] Fernndez, M., Hernndez, C., One or Two Hidden Layers Perceptrons.
European Symposium on Artificial Neural Networks (ESANN98), pp. 129133, 1998.
[11] Fernndez, M., Hernndez, C., Generalization capability of one and two
hidden layers. Proceedings of the 1999 IEEE International Joint Conference
on Neural Networks (IJCNN99), pp. 1840-1845, 1999.

- 219 -

Captulo 6

METODOS DE INICIALIZACIN DE PESOS PARA REDES


MULTILAYER FEEDFORWARD
6.1. Descripcin del Problema
6.2. Descripcin de los diferentes mtodos
6.2.1. Mtodo 1
6.2.2. Mtodo 2
6.2.3. Mtodo 3
6.2.4. Mtodo 4
6.2.5. Mtodo 5
6.2.6. Mtodo 6
6.2.7. Mtodo 7
6.2.8. Mtodo 8
6.2.9. Mtodo 9
6.2.10. Mtodo 10
6.2.11. Mtodo 11
6.2.12. Mtodo 12
6.2.13. Mtodo 13
6.3. Metodologa
6.4. Desarrollo Experimental
6.5. Conclusiones
6.6. Bibliografa del Captulo
6.7. Apndice del Captulo

6.1. Descripcin del Problema


Es bien conocido que el algoritmo de entrenamiento Backpropagation [1] se
puede interpretar como la optimizacin de una funcin de error con respecto a un
conjunto de parmetros: los pesos de la red.

- 221 -

6.1. DESCRIPCIN DEL PROBLEMA

La principal tarea de este algoritmo es la bsqueda de un mnimo en la


funcin de error. Generalmente este mnimo ser local ya que no est garantizado
que se pueda encontrar un mnimo global.
El mnimo encontrado despus de la convergencia de la red ser el que
determine la calidad de las soluciones que sta proporcione.
Si el mnimo local encontrado es cercano a un mnimo global de la funcin
de error, podremos considerar que la eficiencia final de la red ser aceptable y
consideraremos que el proceso de entrenamiento ha tenido xito, aunque los
resultados no sern del todo ptimos.
Sin embargo, hay otros mnimos locales que proporcionan un entrenamiento
pobre del clasificador, es decir, proporcionarn una eficiencia final muy lejana del
valor ptimo. Estos son los llamados mnimos falsos y en estos casos el resultado
final no es aceptable por lo que consideraremos que la red no ha convergido.
En este punto cabe plantearse la pregunta de qu factores son los que
determinan cul ser el mnimo final para una cierta estructura de red neuronal.
Como hemos visto ya en otros captulos, los principales factores son dos: el
punto inicial usado en la bsqueda del mnimo (la particular inicializacin de los
pesos en el caso de redes neuronales) y las tcnicas de optimizacin utilizadas, es
decir, el algoritmo de entrenamiento usado.
En otras palabras, dos algoritmos de entrenamiento diferentes con la misma
inicializacin pueden encontrar dos mnimos locales diferentes y viceversa, dos
diferentes inicializaciones para el mismo algoritmo de entrenamiento pueden dar
diferentes mnimos locales.
Como ya hemos visto, dos mnimos diferentes proporcionan eficiencias
finales diferentes. Veamos ahora como repercute esto en el caso de redes
neuronales y la inicializacin de los pesos.
Primero pensemos en cul ser la consecuencia inmediata de una particular
inicializacin de pesos.
Desde nuestro punto de vista, la inicializacin de los pesos influye sobre tres
propiedades de la convergencia de la red neuronal: la velocidad de convergencia,
la probabilidad de que haya xito en la convergencia y la capacidad de
generalizacin (eficiencia final de la red).
Respecto a la primera, la velocidad de convergencia, una particular
inicializacin de pesos puede estar cerca de un determinado mnimo local y puede

- 222 -

6.1. DESCRIPCIN DEL PROBLEMA

llevar a que el mnimo local se alcance de forma ms rpida. En definitiva, el


nmero de iteraciones para el proceso de entrenamiento y el tiempo de
convergencia puede ser menor en funcin de la inicializacin tomada para los
pesos. Esta consecuencia se describe ampliamente en la bibliografa [1], [2], [3],
[4] y [5]. La relacin de rapidez de convergencia puede ser desde un pequeo
orden de magnitud hasta ordenes considerables.
Desde el punto de vista de relacin de xito en la convergencia, como
discutimos al principio, una cierta inicializacin de pesos puede llevar a que el
algoritmo de entrenamiento alcance un mnimo local aceptable o un falso mnimo
local. En el primer caso, consideramos que la red ha convergido con xito y en el
segundo que la red no converge. Vemos pues, que la relacin final de
convergencias con xito con respecto al nmero total de intentos puede
depender de la inicializacin tomada para los pesos.
El tercer efecto era la influencia sobre la capacidad de generalizacin final
de la red neuronal. Supongamos dos convergencia con xito que encuentren dos
mnimos locales diferentes. Supongamos que la eficiencia que proporcionan
ambos mnimos es tambin aceptable, pero en general ser diferente, por lo cual la
capacidad de generalizacin final de las redes entrenadas con diferentes
inicializacin de pesos resultar tambin diferente. De hecho en la bibliografa [6]
se muestra claramente esta ltima consecuencia.
Por todo lo dicho hasta aqu, creemos que la inicializacin de los pesos es
un aspecto muy importante a la hora de entrenar una red neuronal y que merece
un estudio detallado.
En general, la forma clsica de inicializacin de pesos para redes Multilayer
Feedforward es utilizar una distribucin uniforme y aleatoria dentro de un
pequeo intervalo centrado en cero, por ejemplo [-0.1,0.1].
Sin embargo, como se puede ver en la bibliografa, se han propuesto otros
mtodos diferentes de inicializacin de pesos para redes Multilayer Feedforward.
En este captulo nos proponemos hacer un estudio detallado de los mismos y
estudiar la eficiencia relativa entre ellos, para concluir cul de ellos resulta ms
interesante usar.
Algunos autores no proponen mtodos concretos pero s suministran ideas
interesantes que pueden ser aplicadas a este problema. Por ejemplo, en la
referencia [7], se puede observar que hay una relacin entre la anchura y la
probabilidad de distribucin para la inicializacin aleatoria de los pesos y el valor
ptimo del paso de adaptacin. Por ello, los autores proponen que los pesos de las

- 223 -

6.1. DESCRIPCIN DEL PROBLEMA

diferentes capas de la red se deberan inicializar con diferentes amplitudes, el


intervalo para los pesos entre la entrada y capa oculta debera ser mayor.
En la referencia [6], se investiga la influencia de la inicializacin sobre la
capacidad de generalizacin y se concluye que hay un rango ptimo de a para
una inicializacin aleatoria en el intervalo [-a, a], que ser el que proporcione
mejor generalizacin. Desafortunadamente, los autores no explican cmo escoger
el mejor valor de a para un cierto problema.
En otros artculos se propone una nueva inicializacin de pesos. Hay
muchas ideas diferentes y aproximaciones.
Por ejemplo, en [8] y [9], se sigue lo que se llama aproximacin clsica.
Es una inicializacin aleatoria en el intervalo [-a, a] y es la misma para todos los
pesos de la red neuronal. El artculo propone frmulas para calcular el valor
apropiado de a.
Sin embargo, en otros artculos [2], [10], [11], [12] y [13], las ideas son muy
diferentes de la aproximacin clsica. En el siguiente apartado revisaremos
algunos de estos mtodos.
En la referencia [14], se presenta una comparacin de diferentes mtodos de
inicializacin de pesos. Sin embargo, las simulaciones se realizan solo para cinco
mtodos, todos ellos del tipo de aproximacin clsica. Nosotros pensamos que
hay otros mtodos que utilizan una aproximacin muy diferente a la clsica y
sera interesante incluirlos en la comparacin.
Nos gustara tambin hacer notar que en la mayora de los artculos los
autores no suministran un conjunto de resultados completos en los que se mida la
velocidad de convergencia, la capacidad de generalizacin y la relacin de xito
en la convergencia. Los resultados son enfocados en uno de estos tres aspectos,
generalmente la velocidad de convergencia. Esto hace que los resultados y
conclusiones sean limitados. Nosotros pensamos que se deberan tener en cuenta
los tres aspectos para determinar que mtodo es ms til.
En este captulo, presentaremos un anlisis y una comparacin emprica de
los diferentes mtodos de inicializacin de pesos que hemos encontrado en la
bibliografa.
Incluimos tambin en la comparacin mtodos que no siguen la
aproximacin clsica.

- 224 -

6.1. DESCRIPCIN DEL PROBLEMA

Como resultados obtendremos medidas de los tres aspectos que influyen en


la inicializacin: velocidad de convergencia, capacidad de generalizacin y
relacin de xito en la convergencia.
Al principio hemos dicho que el mnimo local que obtengamos depender
de la inicializacin y del algoritmo de entrenamiento.
El algoritmo de entrenamiento utilizado fue Backpropagation con funcin
de transferencia en las neuronas de tipo sigmoide o tangente hiperblica, segn el
mtodo empleado.
Sin embargo, los resultados que obtuvimos para 7 problemas nos hicieron
pensar, que en algunos casos, la velocidad de convergencia y la capacidad de
generalizacin podran mejorarse utilizando una funcin de transferencia de tipo
tangente hiperblica.
Por ello, el siguiente paso fue repetir los experimentos utilizando como
algoritmo de entrenamiento Backpropagation con funcin de transferencia
tangente hiperblica. Con esta funcin, el nmero de iteraciones en el
entrenamiento deba disminuir considerablemente. Ahora, se aumento a doce el
nmero de problemas sobre el que aplicar los mtodos.
Esto supuso la modificacin de algunos de los mtodos y de las bases de
datos. Normalizamos los valores de los datos (entradas y objetivos) dentro del
intervalo [-1,1] que es el apropiado para la tangente hiperblica, y en algunos de
los mtodos introdujimos pequeas modificaciones de las cuales incluiremos la
explicacin al describir dichos mtodos.
La funcin de transferencia tangente hiperblica y su derivada vienen dadas
por las ecuaciones siguientes.
f ( x ) = tanh ( x ) =

e x - e-x
2

f ( x ) =

tanh (2 x )
2 tanh ( x )

(6.1)

A continuacin revisaremos detalladamente cada uno de los mtodos que


vamos a estudiar.

- 225 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

6.2. Descripcin de los diferentes mtodos


6.2.1. Mtodo 1
El primer mtodo es la aproximacin clsica para inicializacin de pesos.
Se trata de una distribucin uniforme y aleatoria dentro de un pequeo intervalo
centrado en cero. En nuestro caso utilizaremos el intervalo [-0.05, 0.05].
Hemos incluido este mtodo para tener una referencia de su eficiencia
respecto del resto de mtodos propuestos.

6.2.2. Mtodo 2
En la referencia [16], se propone un mtodo que es una variante de la
inicializacin clsica.
A partir de las ecuaciones del algoritmo de entrenamiento Backpropagation
los autores de la referencia obtienen una condicin que se debe satisfacer para qu
sea posible la convergencia.
Los autores proponen por ello, acotar los valores de los pesos en los lmites
mnimos dados por el intervalo que proporciona la ecuacin (6.2).

Ninput

<

wi

(6.2)

En la ecuacin, representa el paso de adaptacin que se utilizar en el


algoritmo de entrenamiento y Ninput el nmero de neuronas en la capa de entrada.
Los pesos se inicializan de forma aleatoria pero de forma que su magnitud
satisfaga la ecuacin anterior (6.2).
En la referencia no se especifica claramente cmo escoger el valor del lmite
superior para el intervalo en el cual se inicializan los pesos. Nosotros hemos
escogido finalmente para todos los experimentos como lmite superior, la suma de
0.1 ms el lmite inferior (dado por la ecuacin anterior).
Por otra parte, el paso de adaptacin usado en los experimentos fue de 0.1.
Adems, los resultados de la referencia slo se analizan desde el punto de
vista de velocidad de convergencia. Nosotros realizaremos el estudio desde los
tres puntos de vista que ya nombramos en la introduccin.
- 226 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

El entrenamiento con la funcin de transferencia tangente hiperblica no


supone ningn cambio en la aplicacin del mtodo, pero s hay que escalar los
datos y objetivos de entrenamiento en el intervalo [-1,1].

6.2.3. Mtodo 3
En la referencia [2], se describe un nuevo mtodo un poco diferentes de la
inicializacin clsica. En l se propone una nueva estrategia de entrenamiento,
llamada Delta Pre-Training (DPT), con la cual se optimizan los valores iniciales
de los pesos antes del proceso propio de entrenamiento.
Este mtodo esta basado en lo siguiente. Supongamos que empezamos el
entrenamiento inicializando todos los pesos a cero. De esta forma no habra
saturacin prematura y el error y la derivada de la funcin de transferencia seran
mximos, lo cual resultar en una correccin de los pesos mxima y la
convergencia ser ms rpida.
Sin embargo, en el entrenamiento con Backpropagation no se pueden
inicializar los pesos a cero. Por ello, cualquier mtodo que comience con los pesos
inicializados a cero y que consiga luego aplicar Backpropagation sobre los pesos
obtenidos en el mtodo mejorara considerablemente la convergencia.
Los autores del mtodo que denominan DPT, intentan, utilizando la
adaptacin de los pesos en la capa superior y la ecuacin de correccin del error
en una red Multilayer Feedforward, entrenar una serie de perceptrones en los
cuales los pesos estn inicializados a cero.
Para ello, en lugar de utilizar una red Multilayer Feedforward sta es
dividida en simples perceptrones. Por ejemplo, en nuestro caso de redes con una
sola capa oculta, la red es dividida en dos perceptrones: el primero formado por la
capa de entrada y la capa oculta, y el segundo formado por la capa oculta y la de
salida. Una vez divididos habr que definir cuales sern los nuevos objetivos y
entradas respectivas de los nuevos perceptrones.
Despus, los pesos de los perceptrones son inicializados a cero y se realiza
un preentrenamiento de ambos perceptrones usando la Regla Delta, como
algoritmo de entrenamiento
Mediante la Regla Delta no podemos entrenar cada perceptrn hacia la
convergencia. Sin embargo, podemos adaptar los pesos a unos valores ms
apropiados para conseguir despus la convergencia de la red Multilayer
Feedforward con los pesos inicializados en estos valores.

- 227 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Las ecuaciones que describen este algoritmo de Pre-entrenamiento se


encuentran a continuacin.
W ji (t + 1) = P , j I P , j + W ji (t )
P , j = (D P, j - O P , j ) f (Net P, j )

(6.3)

Donde se denota por D la salida deseada (objetivos), O la salida obtenida, I


los patrones de entrada en el perceptrn, el paso de adaptacin, el momento, W
los pesos y f(NetP,j) la derivada de la funcin de transferencia aplicada sobre la
entrada a una neurona de salida j.
Para el primer perceptrn (compuesto por la capa de entrada y la capa
oculta) las entradas sern las mismas, el conjunto de entrenamiento. Los autores
del artculo proponen cuatro formas diferentes de definir los objetivos (salidas en
la capa oculta) del perceptrn.
Para el segundo perceptrn sus entradas deberan coincidir con los objetivos
del primer perceptrn y sus salidas con los objetivos de la red neuronal inicial, es
decir, los correspondientes al conjunto de entrenamiento inicial.
Para calcular los objetivos para el primer perceptron los autores de la
referencia describen cuatro propuestas dependiendo del tamao de la red. Dichas
propuestas son para el caso de entrenamiento con funcin de transferencia
sigmoide. En el caso de funcin de transferencia tangente hiperblica se
sustituirn los elementos binarios 0 y 1, usados al generar los vectores por los
valores por 1 y 1, ya que las entradas y objetivos deben estar escaladas en el
intervalo [-1,1].
Propuesta 1
Ser aplicable s Npattern< 2Nhidden.
Donde Npattern es el nmero de patrones de entrada y Nhidden es el nmero de
elementos de la capa oculta.
Se construyen vectores de elementos binarios formados por todas las
posibilidades de Nhidden bits. Tendremos 2Nhidden vectores. Despus se asigna
secuencialmente vectores diferentes como objetivos para cada una de las
entradas. Como se cumple Npattern< 2Nhidden cada entrada tendr asignada un
objetivo diferente.
Propuesta 2
Ser aplicable s Npattern< 2Nhidden.

- 228 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Se construyen vectores de elementos binarios formados por todas las


posibilidades de Nhidden bits. Tendremos 2Nhidden vectores. Despus, se
asigna aleatoriamente vectores diferentes como objetivos para cada una de
las entradas. Como se cumple Npattern< 2Nhidden, cada entrada tendr asignada
un objetivo diferente. Esta propuesta difiere de la anterior en la forma
aleatoria de generar los objetivos. Segn la referencia esta propuesta
funciona bien en casos en que la anterior no es apropiada.
Propuesta 3
Ser aplicable s Npattern> 2Nhidden.
Se construyen unos vectores de la forma que se describi antes, asignando
vectores aleatoriamente a cada una de las entradas. Ahora, un vector puede
asignarse a varias entradas.
Propuesta 4
Ser aplicable s Npattern> 2Nhidden.
Inicializando aleatoriamente los pesos de la capa inferior se calculan los
valores de las unidades ocultas, presentando los diferentes patrones de
entrada a la red y estos son los que se tomarn como objetivos.
En nuestros experimentos, nosotros utilizaremos las propuestas 2 y 3 para
definir los objetivos del primer perceptrn. Estos objetivos coincidirn con las
entradas que utilicemos para el segundo perceptrn.
Para aplicar el mtodo DPT necesitamos escoger tres parmetros, el paso de
adaptacin, el momento de la regla Delta y el nmero de iteraciones que se debe
usar en el preentrenamiento.
En el entrenamiento con funcin sigmoide se escogieron 6 diferentes
combinaciones para los parmetros; en el caso de la funcin tangente hiperblica
aadimos dos casos ms con menor nmero de iteraciones ya que pensamos que
con dicha funcin la convergencia podra ser mucho ms rpida. El resultado final
fue que para ese par de combinaciones no obtuvimos ninguna ventaja.
El procedimiento completo del entrenamiento Backpropagation con
preentrenamiento para definir los valores iniciales de los pesos puede describirse
con el siguiente algoritmo:
1) Particin de la red en perceptrones.
2) Usar propuesta 2 o 3 para definir los objetivos en la capa oculta.

- 229 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

3) Poner los pesos a cero.


4) /*pre-entrenamiento del perceptron entre la capa de entrada y la oculta.*/
Para (numero de iteraciones)
Escoger un patrn de entrada y ajustar los pesos segn la ecuacin (6.3);
5) /*pre-entrenamiento del perceptron entre la capa de oculta y la de salida*/
Para (numero de iteraciones)
Escoger un patrn de entrada y ajustar los pesos segn la ecuacin (6.3);
6) Para los pesos obtenidos, aplicar el algoritmo BP a la red completa.
El estudio experimental de este mtodo es analizado desde el punto de vista
de capacidad de generalizacin y xito en la convergencia.
Nosotros de nuevo lo estudiaremos adems desde el punto de vista de
velocidad de convergencia.

6.2.4. Mtodo 4
En la referencia [17] se propone una nueva inicializacin de los pesos de tal
forma que se cumplan las ecuaciones siguientes.
wo
wi

<1 o

wo < wi

(6.4)

Donde wo es el threshold de una unidad, y wi el resto de pesos conectados


desde la capa inferior a esa unidad.
Como indica la referencia, estas ecuaciones fueron deducidas por
consideraciones geomtricas para el caso de entradas normalizadas en el intervalo
[-1, 1], sern pues aplicables al caso del entrenamiento con funcin de
transferencia tangente hiperblica.
Supongamos la entrada a una neurona de la capa oculta para el caso de una
red con Ninput elementos en la entrada. La ecuacin que define la entrada a dicha
neurona oculta ser:
Ninput

wi xi + wo

(6.5)

i =1

Si igualamos este valor a cero se obtendrn las lneas de corte de los ejes xi
con los puntos (-wo/w1,0,...,0), (0,-wo/w1,0,...,0), ..., (0,0,...,-wo/w1). La ecuacin
(6.5) se puede escribir:

- 230 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Ninput

i =1

xi
( - wo / wi )

=1

(6.6)

Si las entradas estn escaladas en el intervalo [-1,1], el resultado anterior


genera las lneas de divisin en el espacio de caractersticas. Para que dichas
lneas caigan dentro del espacio de variabilidad de los valores de entrada, se
propone en la referencia utilizar la ecuacin (6.4) para su inicializacin.
Nosotros hemos aplicado las mismas consideraciones para deducir la
ecuacin (6.7) para el caso de entradas normalizadas en el intervalo [0,1]. Esta
ecuacin ser la empleada en el caso del algoritmo de entrenamiento que utiliza la
funcin de transferencia sigmoide.
0<-

wo
wi

<1

(6.7)

De nuevo, en la referencia no se especifica completamente el proceso de


inicializacin de variables, sabemos que hay una restriccin en el valor de los
threshold wo pero no se dice cmo encontrar los valores adecuados. Finalmente
inicializaremos los pesos wi dentro del intervalo [-0.05,0.05] y despus de eso los
threshold sern calculados como el mximo wi (teniendo en cuenta que los wi
estn conectados a la misma neurona de la capa superior). Este procedimiento se
aplica a todos los pesos, primero a los de la capa de entrada y luego a los de la
capa oculta.

6.2.5. Mtodo 5
En la referencia [10] se da otro mtodo basado en consideraciones
geomtricas (las mismas del mtodo anterior). Las lneas lmite de las unidades de
la capa oculta deben estar en el espacio de variabilidad de los valores de las
entradas. Pero en este caso, se exige tambin la condicin de que el espacio de
variabilidad de las entradas debe estar en la regin lineal de la funcin de
transferencia (sigmoide o tangente hiperblica) y no en la zona de saturacin.
Con esta ltima condicin, las unidades ocultas no estarn saturadas al
principio, no tendrn una saturacin incorrecta y se permite que los pesos
evolucionen mucho ms rpidamente hacia su valor final ya que la derivada de la
funcin de transferencia es mayor en la regin lineal.
El mtodo est basado en el siguiente algoritmo, el cual se utiliza para
calcular los pesos wi conectados entre la unidad i de una capa y las unidades de la
capa inferior (n pesos).

- 231 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Algoritmo:
1) Calcular b mediante la ecuacin (6.8), donde f es la funcin de
transferencia y un cierto parmetro. En la referencia se utiliza el valor
0.1 para y nosotros utilizaremos tambin dicho valor en nuestros
experimentos.
b= f

-1

(1 - ) - f

-1

( )

(6.8)

2) Usando n y un parmetro k, se calcula con la ecuacin (6.9) para el


caso de funcin de transferencia sigmoide. El espacio de variabilidad es
[0,1] por lo que el espacio de salida es un espacio n-dimensional (0,1)n.
w =

b
k n

para sigmoide

(6.9)

Utilizaremos la ecuacin (6.10) para el caso de funcin de transferencia


tangente hiperblica. Ahora el espacio de variabilidad es en [-1,1] por
lo que el espacio de salida ser un espacio n-dimensional (-1,1)n. A
partir de las ecuaciones de la referencia se puede deducir en este caso la
ecuacin (6.10).
w =

2 k n

para tangente hiperblica

(6.10)

3) Utilizando un parmetro , se genera un nmero ai aleatorio


uniformemente distribuido en el rango de la ecuacin (6.11).
- ai

(6.11)

4) Usando el valor de ai se calcula wi con la ecuacin (6.12). Se repiten los


pasos 3 y 4 n veces para calcular los n diferentes pesos.
wi = w ai + 1

(6.12)

5) Se calculan los threshold wo. Para el caso de funcin de transferencia


sigmoide se calculan con la ecuacin (6.13). Si la funcin de
transferencia en la tangente hiperblica se toman los threshold wo como
cero.
wo = -0.5

wi

(6.13)

i =1

En la referencia se estudia el xito en la convergencia y la eficiencia


conseguida en el entrenamiento.

- 232 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Como siempre nosotros haremos un estudio desde los tres puntos de vista
nombrados en la introduccin.

6.2.6. Mtodo 6
En la referencia [12], se propone asignar diferentes inicializaciones de los
pesos dependiendo de la importancia de las entradas.
A mayor importancia de una entrada el valor de inicializacin de los pesos
relacionados debera ser mayor. En particular, en la referencia slo se muestran
simulaciones y resultados para un problema con 8 entradas, se inicializan las
entradas ms importantes en [0.5,1], las menos en [0,0.5] y el resto en [0,1].
En la referencia, se utiliza un mtodo para definir la importancia de las
entradas, sin embargo puesto que nosotros ya hemos realizado un estudio muy
detallado referente a este tema, hemos utilizado en nuestra investigacin el mejor
de los mtodos que estudiamos y que se describe en la referencia [18].
Una vez realizada la ordenacin de las entradas en funcin de su
importancia, nosotros las clasificamos en tres grupos: las entradas ms
importantes (primeras de la lista), las entradas menos importantes (ltimas de la
lista) y el resto de entradas. En el primer y segundo grupo incluimos alrededor de
un cuarto del total de entradas (en cada uno) y en el otro alrededor de la mitad.
En nuestros experimentos, los pesos de las entradas ms importantes (primer
grupo) son inicializados aleatoriamente en el intervalo [0.5,1], las menos
importantes en [0,0.5] y el resto en [0,1], tal y como se sugiere en [12].
Los resultados de la referencia slo son analizados desde el punto de vista
de velocidad de convergencia y capacidad de generalizacin. Nosotros
incluiremos tambin el estudio desde el punto de vista de xito en la
convergencia.

- 233 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

6.2.7. Mtodo 7
Este mtodo se denomina SCAWI y se propone en las referencias [8] y [20].
En primer lugar, se dan una serie de definiciones que sern necesarias para
desarrollar el mtodo.
Definicin 1: Una neurona est en estado de saturacin cuando la
magnitud de sus salidas es mayor que un determinado
threshold o umbral.
Definicin 2: Una neurona est en estado paralizado cuando est
saturada y la magnitud de al menos una salida de error
(diferencia entre una salida de la red y sus objetivos) es
mayor o igual que un valor predeterminado.
Recordemos que con Backpropagation, cuanto mayor sea la magnitud de
salida de una neurona menor ser su derivada y el entrenamiento se har ms
dificultoso.
En [8] se utiliza el concepto de paralyzed neuron percentage (PNP).
Definicin 3: Se define un parmetro llamado paralyzed neuron
percentage (PNP), testeando cuantas veces una neurona
est en estado paralizado.
Durante las simulaciones puede calcularse el valor de PNP, para un
conjunto de pesos, considerando todo el conjunto de entrenamiento y contando
cuantas neuronas (de la capa oculta y de salida) estn en estado paralizado y
dividiendo este resultado entre el nmero de patrones.
La expresin para inicializar los pesos ser:
w ji =

R ao
j

Nj

r ji ;

j =

E [xi2 ]

(6.14)

i =1

Donde E[y] es la expectacin de la variable y, R es un escalar que se puede


determinar a partir del valor de PNP y rij es un nmero aleatorio uniformemente
distribuido en el rango [-1,1].
Adems, ao es un valor que se escoger segn el tipo de funcin de
transferencia usada, Nj es el nmero de entradas a la neurona j-sima y xi es cada
una de dichas entradas.
En las referencias se explica de forma detallada cmo calcular el valor de R
a partir del valor de PNP. Despus, hay que encontrar una relacin entre PNP y

- 234 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

EES(nmero de pocas de entrenamiento) que representa el coste del proceso de


optimizacin. Se propone un valor de PNPopt=5% (Ropt y E[S2]opt).
A partir de las expresiones de (6.14) se pueden deducir expresiones para la
topologa de red neuronal con una capa de entrada, una oculta y una de salida.
En (6.15) se da el valor medio de la expectacin del valor cuadrtico de las
entradas.
2 =

1
N input

Ninput

E [ I i2 ]

(6.15)

i =1

Los valores de se pueden calcular a partir de la siguiente ecuacin:


input = 1 + N input 2 ;

hidden = 1 + N hidden E [ S 2 ] ;

(6.16)

Para el caso de funcin de transferencia de tipo tangente hiperblica en las


referencias se propone el uso de un valor de ao=1.47.
En la referencia se determina experimentalmente los valores ptimos de
PNP, R y E[S2]. Finalmente se escoge Ropt=0.9 y E[S2] opt=0.3. Sustituyendo en
las ecuaciones anteriores se obtienen las ecuaciones para los pesos.
En la ecuacin (6.17) se calcula los pesos conectados entre la capa de
entrada y la capa oculta. Ninput es el nmero unidades de entradas a la red
wijinput =

1 .3
1 + N input 2

rij

(6.17)

En la ecuacin (6.18) se calcula los pesos conectados entre la capa oculta y


la de salida. Nhidden es el nmero unidades de la capa oculta.
wijhidden =

1.3
1 + 0.3 N hidden

rij

(6.18)

Estas ecuaciones estn deducidas en las referencias para el caso de la red


Multilayer Feedforward con funcin de transferencia tangente hiperblica. Las
entradas de la red deben estar normalizadas, en este caso, en el intervalo [-1,1].
Los autores analizan los resultados desde el punto de vista de velocidad de
convergencia y la relacin de convergencias exitosas.

- 235 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

6.2.8. Mtodo 8
En la referencia [13] se describen dos mtodos de inicializacin de pesos
que se denominan: Forward Estimation Algorithm y Recurrent Estimation
Algorithm.
Los mtodos estn basados en la idea de que si las condiciones iniciales de
la red se escogen cercanas a un mnimo, el proceso de entrenamiento posterior
tendr una convergencia ms rpida.
Nosotros denominaremos a los mtodos como Mtodo8a y Mtodo8b.
Veamos primero cual es la notacin que se usar en la descripcin de los
mtodos.
Ninput

Nmero de unidades de entrada de la red.

Nhidden

Nmero de unidades ocultas de la red.

Nsalida

Nmero de unidades de salida de la red.

Nmero de patrones de entrenamiento.

Matriz de la entrada correspondiente a todos los patrones P.

Matriz de salidas de las unidades ocultas para los patrones P.

Matriz de salidas de la red para todos los patrones P.

Wi

Matriz de pesos entre la capa de entrada y la oculta.

Wh

Matriz de pesos entre la capa oculta y la de salida.

Bi y Bh

Vector de umbrales de la capa oculta y de salida.

Vector constante b={1 1 1 ... 1}T

yjP

Salida actual de la unidad j de la red al presentar el patrn P

djP

Salida deseada de la unidad j de la red al presentar el patrn P

La ecuacin (6.19) expresa las salidas de las unidades ocultas a partir de las
entradas y pesos.

f [ XMb

Wi
] L

Bi

=H

La ecuacin (6.20) proporciona las salidas de la red neuronal.

- 236 -

(6.19)

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

f [ HM b

Wh
] L

Bh

=D

(6.20)

En las ecuaciones, f representa la funcin de transferencia tangente


hiperblica: f(x)=tanh(x).
Mtodo8a: Forward Estimation Algorithm
Se escogen inicialmente de forma aleatoria los pesos y umbrales entre la
capa de entrada y la capa oculta Wi y Bi. Con estos valores podemos calcular las
salidas de las neuronas de la capa oculta, H, utilizando la ecuacin (6.19).
Para estimar los pesos Wh se utiliza la ecuacin (6.20). A partir de ella se
obtiene la siguiente ecuacin:
Wh
Wh

[ H M b ] L = G L = f


Bh
Bh

-1

(D ) = Y

(6.21)

Los valores de f(x) estn limitados al intervalo [-1,1] y por ello para poder
calcular la inversa hay que limitarse a las cercanas de dicho intervalo.
f

-1

( x ) = (tanh( x )) -1

(6.22)

Se tomar pues, el intervalo de definicin de la tangente en [-0.99,0.99] por


lo que los valores de las salidas deseadas (objetivos de la red), debern de ser
modificados para pertenecer a este intervalo.
El valor de los pesos se determina a partir del valor del rango de las
matrices G y Y. Hay tres casos distintos.
Caso a)
Si

([G]) = ([G Y]) = (Nhidden+1)

Habr solucin nica:

Wh
WH = L = G -1 Y

Bh

Donde G -1 es la matriz pseudo-inversa de G.


Caso b)
Si

([G]) = ([G Y]) < (Nhidden+1)

- 237 -

(6.23)

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Entonces, existen infinitas soluciones, que resuelvan la ecuacin (6.21). No


existen mtodos que indiquen que solucin es mejor por lo que en la
referencia han optado por tomar la solucin conocida como de mnima
norma que se muestra en la ecuacin (6.24)
Wh
WH = L = G T ( G G T ) -1 Y = G # Y

Bh

(6.24)

Donde G# es la pseudo-inversa de G.
Caso c)
Si

([G]) < ([G Y])

No hay solucin exacta.

Pueden seguirse diferentes estrategias para encontrar una solucin


aproximada. Los autores de la referencia han optado por la solucin llamada
de mnimo error cuadrtico.
Wh
WH = L = ( G T G ) -1 G T Y = G # Y

Bh

(6.25)

Donde G# es la pseudo-inversa de G.
El algoritmo Forward Estimation queda finalmente como:
1) Inicializar aleatoriamente las matrices Wi y Bi en el intervalo ( - , ).
2) Calcular H (salidas de la capa oculta).
3) Estimar los valores de Wh y Bh utilizando una de las ecuaciones de los
3 casos anteriores.
Mtodo8b: Recurrent Estimation Algorithm
Este algoritmo utilizar como primer paso el resultado del anterior.
El objetivo es acercar cada vez ms los valores de inicializacin de los pesos
a un mnimo, minimizando para ello la raz del error cuadrtico medio (RMSE)
cuya expresin viene dada por la siguiente ecuacin:
RMSE =

1
P

N
i =1

1
salida

Nsalida

j =1

2
(d ij - y ij )

- 238 -

(6.26)

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

A partir de los resultados del mtodo anterior (Mtodo8a), se fijan los


valores de Wh y Bh (en los obtenidos) y se calcula la inicializacin para los pesos
y umbrales Wi y Bi. Para ello se reescribe la ecuacin (6.21) como sigue:
H Wh = f

-1

( D ) - b Bh = Z

(6.27)

Para cada uno de los tres casos del mtodo anterior calculamos H segn la
ecuacin (6.28).
si r ( [ Wh T M Z T ] ) = r (Wh T ) = N hidden

Z Wh -1
-1

H = Z (Wh T Wh ) Wh T
Z Wh T (Wh Wh T )-1

si r ( [ Wh T M Z T ] ) = r (Wh T ) < N hidden

(6.28)

si r ( [ Wh T M Z T ] ) r (Wh T )

Si se da la ltima condicin (caso c) se debera parar el proceso porque Wi y


Bi son los mismos que ya tenamos.
Si se da la primera condicin (caso a) hay una nica solucin para H. Puesto
que H es la salida de las unidades ocultas, sus valores no deben superar el rango
de la funcin de transferencia, es decir [-1,1].
Como suele ocurrir que el nmero de unidades ocultas es mayor que el
nmero de unidades de salida, la estimacin de H suele ser la de la segunda
condicin (caso b). En este caso, el valor de H calculado por la ecuacin (6.28)
debe ser ajustado teniendo en cuenta el valor anterior, H1, dado por la ecuacin
(6.19). El nuevo valor de H ser:
H = H1 + l H

(6.29)

Donde es parmetro que toma valores en (0,1).


Transformando la ecuacin (6.19) podemos obtener los valores de Wi y Bi
como sigue:
Wi

Wi


Bi


Bi

[ X M b ] L = A L = f -1 ( H ) = K

(6.30)

De nuevo tenemos tres casos posibles para la solucin segn los valores de
los rangos de las matrices. Los pesos Wi y Bi se pueden calcular por la ecuacin
(6.31).
-1
Wi A K

L = A (A AT )-1 K

-1

Bi (AT A) AT K

si r ( [ AM K ] ) = r ( A) = ( N input + 1)
si r ( [ AM K ] ) = r ( A) < ( N input + 1)
si r ( [ AM K ] ) = r ( A)

- 239 -

(6.31)

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Finalmente el algoritmo tendr los siguientes pasos:


1) Inicializar aleatoriamente las matrices Wi y Bi en el intervalo ( - , ).
2) Calcular H (salidas de la capa oculta) mediante la ecuacin (6.19).
3) Estimar los valores de Wh y Bh mediante (6.23), (6.24) o (6.25) que
describan los 3 casos posibles de solucin a la ecuacin (6.21).
Calcular las salidas de la red y con ella el error RMSE. Si el valor del
error RMSE es inferior al valor 0.05 (criterio de parada) pasar al paso
7, sino seguir con el paso 4.
4) Calcular H utilizando los valores de Wh y Bh obtenidos usando la
ecuacin (6.28).
i) Si se da el caso c) ir al paso 7 y acabar.
ii) Si se da el caso b) recalcular H con la ecuacin (6.29).
5) Ajustar los valores de H obtenidos al intervalo [-0.99,0.99] (cercanas
del rango de la funcin de transferencia).
6) Utilizando el valor de H obtenido antes (segn el caso a, b o c):
i) Estimar los valores de Wi y Bi
ii) Calcular H para los nuevos valores de Wi y Bi.
iii) Dado Wh y H calcular las salidas de la red.
iv) A partir de estas, calcular el nuevo RMSE.
Si el valor de RMSE no se ha reducido pasar al paso 7 y acabar. Si el
nuevo valor del error es menor volver al paso 2.
7) Acabar el proceso de inicializacin de pesos.

6.2.9. Mtodo 9
En la referencia [11] se describe un nuevo mtodo de inicializacin de pesos
basado en la idea de reducir el tiempo de entrenamiento.
De nuevo, se intenta buscar un mejor punto de inicio para el proceso de
aprendizaje, y para ello se aplican conceptos de tipo geomtrico modificando de
forma simple el modelo de red Multilayer Feedforward.
Supongamos un perceptrn de dos capas en la cual las neuronas de salida
son lineales. Se puede expresa dicha salida como:
n
r
r r
f ( x ) = i ( i x + i ) + o
i =1

- 240 -

(6.32)

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Donde x ser el vector de entrada a la red, y es la funcin de transferencia


de las neuronas ocultas. Para aumentar la velocidad de entrenamiento de la red los
autores proponen realizar la siguiente modificacin geomtrica.
r
f (x) =

i (d i ( x - ti )) + o

(6.33)

i =1

Donde llaman d i al parmetro de dilatacin, equivalente a los antiguos


r
pesos y t i al parmetro de translacin cuyo producto por el parmetro de
dilatacin sera la antigua i .
Con la frmula inicial la derivada parcial respecto de los pesos dependa del
r
vector x , mientras que ahora la derivada respecto del parmetro de dilatacin
r r
depender de ( x - t i ).
La posicin de los hiperplanos que dividen el espacio de las entradas, como
hemos visto en otras ocasiones, viene dado por la ecuacin:
r r
i x + i = 0;

- ri
i

(6.34)

En el mtodo propuesto en [11] la posicin de los hiperplanos depender de


r
r
los parmetros t i y d i . De hecho, la salida de una neurona depender de tres
parmetros:
r

1. La posicin de los centros de activacin dados por los parmetros t i .


r

2. La orientacin de los hiperplanos de decisin dada por ( d i /|| d i ||).


r

3. La selectividad de la funcin de transferencia dada por || d i ||.


En este mtodo en lugar de dar una inicializacin aleatoria se separa el
proceso en tres partes, cada una relacionada con uno de los parmetros. Los
parmetros son seleccionados aleatoriamente en tres pasos.
El parmetro de translacin debe estar dentro de la parte del espacio de
entrada en la cual se define la funcin a aprender. La orientacin se definir
dentro de la esfera de radio unidad, y el parmetro de selectividad ser escogido
de forma que evite la saturacin de las neuronas en todos los ejemplos de entrada.
Consideremos el caso de la red Multilayer Feedforward, si los ejemplos de
entrenamiento estn distribuidos en el intervalo [a,b], se tomar para las
translaciones el intervalo [a,b], para la orientacin se escoger algn valor de la
esfera de radio unidad y para la selectividad un valor comprendido en el intervalo

- 241 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

[1/(b-a) , 2/(b-a)], donde las i son constantes que dependen de la funcin de


transferencia.
En nuestro caso, las entradas estn definidas en el intervalo [-1,1], ya que
utilizamos la tangente hiperblica como funcin de transferencia en el
entrenamiento. Por ello los intervalos de variacin de los parmetros quedarn:
translacin
orientacin
selectividad

r
ti en [- 1 , 1 ]
r
di
r
en esfera de radio unidad
di

(6.35)

l1 , l2 con l = 2; l = 10
1
2
2 2

Los valores de 1 y 2 se escogen tal y como se recomienda en la referencia.


El algoritmo final para la aplicacin de este mtodo puede quedar como:
1) Inicializar aleatoriamente las orientaciones y normalizarlas a 1
r

i) Inicializamos aleatoriamente d i .
r

ii) Calculamos || d i ||.

iii) Calcular las orientaciones d i /|| d i ||.

2) Inicializar aleatoriamente la selectividad || d i || en el intervalo [1,5].


r

3) Construir el vector de dilataciones d i como el producto de las


orientaciones y la selectividad calculadas en los pasos 1 y 2.
r

4) Construir el vector de translaciones t i aleatoriamente en el intervalo de


valores de los vectores de entrada [-1,1]
5) Construir la matriz de pesos y umbrales entre la capa de entrada y la
oculta.
r
Wi = d i ;
r r
Bias = d i t i ;

(6.36)

6) Inicializar aleatoriamente los pesos entre la capa oculta y la de salida


en el intervalo [0, 0.05] (cercanos a cero), tal y como recomienda la
referencia.

- 242 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

6.2.10. Mtodo 10
El mtodo descrito en la referencia [22] utiliza lo que se llaman Prototipos
para inicializar los pesos de la red. Los autores hacen mencin de un mtodo de
clculo de prototipos llamado RCE, descrito en la referencia [23]. Con este
mtodo el nmero de prototipos que se escoja determinar el nmero de unidades
ocultas de la red a entrenar. En el apndice del captulo se encuentran los
resultados finales del nmero de unidades ocultas escogido.
Veamos en primer lugar en que consiste el mtodo de inicializacin
propuesto y despus el mtodo de generacin de prototipos.
Mtodo de inicializacin
r

Supongamos conocido un conjunto de vectores de referencia p i con


i=1,...,K, llamados Prototipos y con clasificacin conocida.
Estos vectores se utilizarn para dar una regla de decisin que asigne a cada
patrn del conjunto de entrenamiento una clase. Una regla podra ser clasificar
cada patrn en la clase de vecinos ms prximos a los prototipos, definiendo la
proximidad mediante una determinada mtrica. De esta forma, un vector lejano de
los prototipos o cercano a varios de diferentes clases ser rechazado.
La regla de decisin puede ser implementada con una red de N entradas, K
unidades ocultas y C salidas. Una unidad oculta estar activada si la distancia
r
entre el vector de entrada y un prototipo p i es menor que un cierto umbral i.
Se propone utilizar esta arquitectura como base para inicializar los pesos de
una red Multilayer Feedforward.
El mtodo propone realizar una transformacin del espacio de entrada de
forma que los nuevos vectores estn normalizados, a costa de aadir una nueva
dimensin al espacio de entrada (que ser la proyeccin en una hiperesfera de
radio unidad).
La transformacin que se realiza ser la siguiente:

p o h:

y1

r
y = M
y
n -1

r
x=

- 243 -

y1

y n -1

n -1
1
2
y i

r 2 i =1

(6.37)

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Donde r max ( y ) , y es un ejemplo del conjunto de entrenamiento inicial


y N=(n-1) es la dimensin del espacio de entrada original.
Los vectores y representan las entradas originales (conjunto de
entrenamiento), y los x los nuevos vectores de entrada transformados.
Para poder aplicar el mtodo de inicializacin suponemos las entradas
normalizadas como se indica en la ecuacin (6.37), y que disponemos de K
prototipos.
Supongamos la red Multilayer Feedforward que queremos entrenar tal que
la capa de entrada y oculta de la red tengan una unidad umbral con activacin
constante igual a 1. Las matrices de los pesos (conexiones) WI y WH entre la capa
primera y la segunda, y entre la segunda y tercera respectivamente, se pueden
inicializar segn las siguientes ecuaciones.
Las conexiones WI entre las unidades de la capa de entrada (considerando la
unidad umbral para N+1) y la capa oculta, tendremos:
WI i , j = p ij

"i {1..K } "j {1..N }


"i {1..K }

WI i , N +1 = - i

(6.38)
i < 1

Para las conexiones WH entre las unidades de la capa oculta (considerando


la unidad umbral para K+1) y la capa de salida:
> 1 si p c (clase c )
WH c,i =
si p c (clase c )
0

"c {1..C} "i {1..K }


"c {1..C}

(6.39)

WH c, K +1 = -1

En las ecuaciones (6.38) y (6.39) la i recorre los diferentes prototipos, la j


las componentes de un vector de entrada de dimensin N=(n-1) y la c las
diferentes clases.
Con la inicializacin anterior de las matrices de pesos, una entrada que
cumpla la ecuacin (6.40) causar que la i-sima unidad oculta tenga un valor de
activacin cercano a la unidad y mayor que la inversa de g. Por ello, la unidad de
r
salida que corresponda a la clase del prototipo p i ser tambin activada.
r r
pi x - bi > 0

(6.40)

De aqu se puede deducir:


r r
pi x > bi

- 244 -

(6.41)

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Los valores de las constantes a, bi y g deben ser escogidos tal y como se


aconseja en la referencia [22], es decir, de forma que se controle el grado de
linealidad de la activacin. Valores grandes provocan que el entrenamiento
posterior de la red con Backpropagation sea lento, por ello hay que escoger unos
valores de compromiso.
Generacin de prototipos
Puesto que el nmero de unidades ocultas debe ser lo menor posible el
conjunto de prototipos tender a ser menor que el conjunto de entrenamiento.
Los mtodos para la generacin de prototipos pueden utilizarse para
sintetizar la informacin contenida en el conjunto de aprendizaje en forma de
pocos vectores: los prototipos.
El mtodo descrito en la referencia [23], llamado RCE, se utiliza para
problemas de clasificacin con algoritmos supervisados, como en el caso que nos
ocupa en toda nuestra investigacin.
Para desarrollar el mtodo, se parte como dijimos antes, de una arquitectura
de N entradas, K unidades ocultas y C unidades de salidas.
Las neuronas de entradas Fj se proyectan a travs de las conexiones dadas
por una matriz A en las neuronas prototipo Gi, las cuales estn unidas por las
conexiones dadas por la matriz B con las neuronas de salida o clasificacin Hc.
Cada clase ser representada por la activacin de una nica neurona Hc. Si
una entrada causa la activacin final de una cierta Hc, esta entrada ser clasificada
en la categora asociada con dicha neurona.
Para una clase dada puede haber ms de un prototipo, correspondientes a
diferentes Gi. Los diferentes prototipos son de la misma clase por lo que causan
que se active una cierta Hc.
Adems el conjunto de neuronas H de salida tiene otra fuente adicional de
entradas que viene representada por un bloque T (supervisor), el cual corrige la
respuesta de clasificacin de la red. T cambiar el valor de las conexiones B entre
las unidades G y H.
Supondremos que cada prototipo Gi tiene una regin de influencia en el
espacio de entradas. Supondremos los patrones de entrada normalizados. Aqu se
utilizar la normalizacin vista en (6.37).

- 245 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Una clase de patrones definir una regin o conjunto de regiones en el


espacio de entrada, de forma que los patrones quedarn agrupados en categoras
segn a la clase a la que pertenecen.
Para poder identificar la clase de un patrn la red neuronal tendr que
aprender cuales son las regiones que definen las clases o categoras.
El modelo descrito en la referencia [23] desarrolla por si solo un conjunto de
prototipos, cuyas regiones de influencia nos definirn las reas correspondientes a
las diferentes clases en el espacio de patrones de entrada.
En el mtodo desarrollado en [23] y denominado RCE los prototipos finales
que se obtienen sern patrones escogidos del conjunto de entrenamiento.
r

r r

Supongamos los patrones de entrada f normalizados, es decir, f f = 1 .


Cada prototipo tiene asociada una conexin dada por:
r
r
Ai = i p i

r r
donde p i p i = 1

i > 1

(6.42)

Puede ocurrir que la presentacin de un prototipo a las neuronas H no active


la neurona adecuada (la correspondiente a la clase correcta). En este caso, se dar
una de las siguientes situaciones: el patrn estar mal clasificado o confusin
(no esta claro a que clase pertenece).
Estas situaciones pueden ser corregidas mediante el bloque T (supervisor)
que debe adaptar las conexiones para que la clasificacin sea correcta.
La modificacin en las conexiones de las neuronas prototipo vendrn
gobernadas por dos condiciones:
1. Nueva clasificacin. Si un patrn de la clase c es presentado a la red y
la neurona Hc no responde, una nueva neurona Gk ser asociada al
r
patrn f (c) y la conexin entre Gk y F se modifica como sigue:
Akj Pkj = o f i

o > 1

(6.43)
r

2. Confusin. Si presentamos el patrn f (c) a la red y causa alguna


actividad en Hw con wc, entonces habr que modificar el factor hasta
r
que f (c) alcance un umbral, es decir que se cumpla:
r r

tal que

r r
r p r f (c ) = 1

(6.44)

Estas dos reglas para adquirir y modificar los prototipos llevan a la red a
aprender la distribucin espacial de los patrones.
- 246 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Para una red no entrenada, las neuronas de G no estn conectadas con las de
H por lo que los elementos de la matriz B sern todos ceros, o un nmero muy
pequeo.
Cuando se presenta un patrn a la red las neuronas H no respondern por
encima de un cierto umbral.
r

Una neurona G es asignada a f (c) como un prototipo para esa clase.


Simultneamente la conexin entre G y Hc es puesta a 1. Esta entrada representar
el primer ejemplo de una clase de patrones. Sea c=1, si el mismo patrn vuelve a
ser presentado al sistema la respuesta de G debera ser:
r
r
o p 1 (c ) f ( c ) = o > 1

(6.45)

La seal de salida lo desde G debe causar que Hc se active.


r

Para otro patrn diferente f (c) tal que pertenezca a la misma clase que el
anterior c=c pueden darse dos casos como se indica en la ecuacin (6.46). En el
caso a) la neurona Hc debera activarse y el patrn estara correctamente
clasificado, y en el caso b)el patrn esta mal clasificado y debe ser asignado un
nuevo prototipo P2(c) con la unin entre G y Hc igual a 1.
r
r
a ) o p1 (c) f (c) > 1
r
r
b) o p1 (c) f (c) < 1

(6.46)

De esta forma una clase puede ser caracterizada por ms de un prototipo.


Cuando las clases son diferentes c c se generar tambin un nuevo
prototipo para una clase diferente donde el valor de lo se reduce a l1.
r
r
o p1 (c) f (c) > 1
o 1

tal que

r
r
1 p1 (c) f (c) = 1

(6.47)

Aplicando todo lo anterior podemos resumir el algoritmo para la seleccin


de prototipos como sigue:
Partimos del conjunto de entrenamiento: patrones con objetivo conocido.
Escogemos un valor inicial para lo>1, y otros para b y g.
1) Calcular la norma de los patrones de entrada.
2) Calcular cul es la mxima norma de las calculadas en el paso 1.
3) Redefinir los patrones de entrada segn la ecuacin (6.37), donde r es
el mximo calculado en el paso 2.

- 247 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

4) (Para i=1 hasta Nite). Repetir hasta el punto de convergencia de la red


5) (Para k=1 hasta N patrones) Repetir para el conjunto de patrones
i) Si k=1 & i=1 (primer patrn) coger el primer patrn
multiplicarlo por lo y guardarlo como primer Prototipo.
ii) Si no (para el resto de patrones) (k1, excepto el primer
patrn). Analizar el resultado de la ecuacin (6.41).
I) Si no se ha activado ninguna salida (la ecuacin 6.41 no
se cumple) almacenar un nuevo prototipo.
II) Si se activa al menos una unidad de salida y el patrn
est mal clasificado (su clase no se corresponde con la
del prototipo que hace mxima la ecuacin 6.41),
estamos en "confusin" y hay que modificar el valor de
l usando las ecuaciones de la (6.44) o (6.47).
6) Fin del bucle de patrones.
7) Fin del bucle de iteraciones.

6.2.11. Mtodo 11
En la referencia [24] se presenta un nuevo mtodo de inicializacin de
pesos, basado en la aproximacin de los lmites de decisin de las clases de los
patrones de entrada.
En Multilayer Feedforward las clases estn separadas por hiperplanos. Los
autores desarrollan un mtodo de inicializacin que impone una serie de
restricciones en la orientacin y localizacin de los hiperplanos de la capa
intermedia (ecuaciones de sumas de entrada ponderadas). Estas restricciones
intentan eliminar los estados fsicos de la red que estn altamente relacionados
con los falsos mnimos locales en la red, mejorando as la convergencia.
En la referencia [25], en la cual se basan los autores del presente mtodo, se
utilizan conceptos de agrupamiento (en ingls clustering) y de vecinos ms
prximos para encontrar las fronteras de decisin entre las clases (en ingls
boundary segment), de forma que a partir de estas se pueda encontrar una
inicializacin de los pesos.
Como hemos dicho antes, la red Multilayer Feedforward se conoce como un
clasificador de hiperplanos, es decir se puede encontrar una funcin discriminante
que separe las diferentes clases mediante hiperplanos. Las redes son entrenadas

- 248 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

para poder encontrar los parmetros de dichas funciones discriminantes (pesos y


umbrales) a partir de los datos de entrenamiento.
Cada nodo en la capa de salida representa una funcin discriminante que
separa entre una clase y todas las dems. Por ejemplo, para la neurona de salida Oi
la funcin discriminante se puede escribir como:

Oi = f i ( x) = g

wij s j ( x) + bi

(6.48)

Donde sj(x) es la activacin en la capa oculta para el nodo j, y g es la


funcin de transferencia usada en dicha capa. Entonces:

s j ( x ) = g

w jk x j + b j = g (h j (x) )

(6.49)

Las funciones hj(x) representan las ecuaciones de los hiperplanos para los
diferentes valores de j si igualamos sus valores a cero.
En la referencia [25], se calcula la posicin inicial y orientacin de las
fronteras de las clases, usando agrupamiento (clustering) de los datos y el mtodo
de vecinos ms prximos.
Los datos de entrenamiento son primero clasificados, agrupados por clases
(clusters), del resultado se calcula la media los centros de cada grupo (centros
de cada cluster) que representarn entonces a cada grupo. Se calcula para cada una
de las parejas de centros ms cercanos los lmites que representarn un segmento.
Por ejemplo para dos dimensiones de entrada, la frontera es perpendicular a
la bisectriz de la lnea que conecta dos centros de grupos de clases diferentes.
Las ecuaciones que representan dichos segmentos sern:
h j ( x) = X T ( P - Q ) -

1
2

(P T P - Q T Q )

(6.50)

Donde X es un patrn de entrada, P y Q son vectores que representan los


centros de los grupos que caen a igual distancia del segmento lmite.
Para la capa oculta:
h j ( x) = w jk x k + b j = W jT X + b j
k

- 249 -

(6.51)

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

De aqu se pueden deducir las ecuaciones para calcular los pesos entre la
capa de entrada y la oculta, siendo b un escalar que hay que escoger:
W j = (P - Q)
bj = -

(6.52)

(P P - Q Q )
T

Sin embargo el mtodo propuesto en [25] presenta el problema de que el


nmero de centros de grupo (en ingls cluster centers) necesario no est
determinado a priori, por lo que el tiempo de entrenamiento se puede alargar
demasiado si hemos de probar con varios valores.
En [24], los autores proponen una modificacin del mtodo que elimina esta
desventaja. Ahora, en lugar de determinar los centros de grupo, se buscan los
ejemplos de entrenamiento cercanos a la frontera.
El criterio para seleccionar los ejemplos de la frontera se basa en escoger un
subconjunto de ejemplos de entrenamiento que no vare las fronteras de decisin.
A dicho subconjunto se le denomina conjunto consistente y de l se generarn
las fronteras (boundary segment) que se utilizarn para inicializar la red
Veamos el funcionamiento del mtodo. Partimos del conjunto inicial de
patrones de entrenamiento.
1) Tomando de uno en uno los patrones del conjunto de entrenamiento, se
genera un conjunto llamado TORG formado por dichos patrones
ordenados por clases, es decir, primero tomamos todos los patrones de la
primera clase (subconjunto T1), despus tomamos todos los patrones de
la segunda clase (subconjunto T2), y as sucesivamente hasta completar
el conjunto de entrenamiento. TORG={T1,T2,...,Tm}, donde m es el nmero
de clases.
2) En lugar de estimar como en [25] los centros de grupo, se calcula la
Probabilidad a Posteriori de cada patrn Xi del conjunto TORG usando
el mtodo de k-vecinos ms prximos. Este mtodo consiste
bsicamente en, determinar de los k-patrones ms prximos a Xi cuantos
son de una determinada clase j, y dividir dicho valor por el nmero de
vecinos total que hemos escogido. Es decir, se calcula la distancia del
patrn Xi a todos los dems patrones Xn (n distinto de i) nos quedamos
con los k patrones cuya distancia sea menor y vemos cuantos de ellos
son de una cierta clase j. En la siguiente ecuacin podemos ver como se
calculan estas probabilidades P( j | X i ) .

- 250 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

P (w j | X i ) =

kj
k

j = 1,..., m i = 1,..., p

(6.53)

3) El siguiente paso ser eliminar del conjunto TORG los patrones que estn
mal clasificados usando el mtodo de k-vecinos ms prximos.
i) Para cada patrn Xi se calcula cul es la clase ms probable
segn la ecuacin (6.53), para todas las clases j busco cual
tiene mayor probabilidad.
ii) Si la clase objetivo de Xi no coincide con la clase de mayor
probabilidad, hay que rechazar ese patrn y eliminarlo del
conjunto de patrones. T= TORG - {Xi}
iii) Se repite el proceso de i) a iii) para todos los patrones i de TORG.
iv) Al acabar, se toma TORG=T.
4) Eliminar los patrones que estn en la regin de no aceptacin. Para ello
primero se busca la regin L(t) formada por los ejemplos o patrones que
son muy cercanos al lmite, donde los mtodos de vecinos ms prximos
tienen alta probabilidad de error.
i) Para cada patrn disponemos de las probabilidades de
pertenecer a cada una de las clases, ecuacin (6.53). Para un
patrn Xi calculo qu clase tiene mayor probabilidad y la llamo
maximo1. Calculo qu clase tiene el siguiente mximo para la
probabilidad y la llamo maximo2. Es decir, las dos clases que
tienen mayor probabilidad.
ii) Si (maximo1-maximo2)<ACEPTAR se rechaza el patrn Xi. Es
decir, si las probabilidades de dos clases son muy cercanas no
est claro a que clase debe pertenecer por lo que se rechaza.
ACEPTAR es un umbral que se debe fijar.
iii) Se toma T= TORG - {Xi}, se repite (i) y (ii) hasta recorrer todos
los patrones de TORG.
iv) Al acabar, tomar TORG=T.
5) Ordenar los patrones de TORG en cada subconjunto de clases en orden
ascendente segn el valor de la probabilidad de pertenencia a las clases.
Es decir, TEDT={T1,T2,...,Tm}, donde en el subconjunto Tj de patrones que
pertenecen a la clase j, primero estar el patrn que tiene menor
probabilidad de estar en esa clase y el ltimo ser el patrn con mayor
probabilidad.
6) Construir el conjunto TCNN escogiendo el primer patrn de cada uno de
los subconjuntos de clases anteriores. Es decir, TCNN estar formado por

- 251 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

m patrones cada uno de una clase (el que tiene menos probabilidad de
ser de la clase, las fronteras).
7) Utilizar el algoritmo CNN modificado para clasificar y seleccionar
patrones. Para ellos, redefinir el conjunto TCNN aadiendo los patrones
necesarios.
i) Para cada elemento Xi de TEDT encontrar la distancia de los
elementos de TCNN a Xi. Sea Xj de TCNN el elemento que dista
menos a Xi
ii) Si Xj y Xi , no son de la misma clase y XiTCNN se aade Xi al
conjunto TCNN. Poner TCNN= {TCNN , Xi}
iii) Repetir los pasos i) y ii) para todos los elemento de TEDT .
Despus de aplicado el algoritmo CNN modificado, tendremos el conjunto
TCNN de patrones que son necesarios para realizar la inicializacin, es decir para
calcular las fronteras, ecuacin (6.50).
Por cada patrn del conjunto TCNN cabe la posibilidad de que se genere una
unidad oculta en la red neuronal. En el apndice del captulo, podemos encontrar
el nmero de unidades ocultas obtenido para este mtodo y para las diferentes
bases de datos que usaremos.
Proceso de inicializacin:
Partimos de los conjuntos TORG y TCNN anteriores.
1) Para un patrn Xi del conjunto TCNN encontrar el vecino ms prximo Xj
de TORG: tendremos el Xj que dista menos de Xi.
2) Para el patrn Q=Xi de TCNN y el vecino calculado P=Xj.
i) Si es el primer patrn seleccionado de TCNN, calcular la frontera o
contorno (boundary segment), que es, el bisector perpendicular
de la pareja (P,Q), segn la ecuacin (6.50). Podemos
representar dicho contorno mediante un vector fila:
Contorno i = [ - (P T P - Q T Q ) , ( P - Q )

(6.54)

ii) Si no es el primer patrn seleccionado ver si la pareja (P,Q) est


bien clasificada por alguno de los contornos ya calculados, y si
no realizar el paso 2.i) y generar un nuevo contorno.

- 252 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

3) Repetir los pasos anteriores hasta completar todos los patrones del
conjunto TCNN. Al final tendremos una matriz CONTORNO con vectores
fila (contornoi para todo i).
4) Seleccionar el nmero de unidades de la capa oculta de la red Multilayer
Feedforward como el nmero de contornos o fronteras calculadas.
5) A partir de las ecuaciones de los contornos, inicializar los pesos entre la
capa de entrada y la capa oculta utilizando las ecuaciones (6.51) (6.52),
donde b es un parmetro que se debe escoger. La matriz de pesos
coincidir con la matriz CONTORNO del paso 3.
6) Para calcular los pesos entre la capa oculta y la capa de salida una vez
conocidos los de la capa anterior podemos:
i) Calcular la salida de la capa oculta a partir de los pesos
anteriores, usando la funcin de transferencia tangente
hiperblica y aadiendo la neurona umbral con salida 1.
ii) Se vuelve a calcular los valores de los objetivos de las entradas
en el intervalo [-0.99, 0.99] para poder calcular la inversa de la
funcin de transferencia.
iii) Se pueden calcular las entradas a las neuronas de salida
calculando la inversa de la funcin de transferencia (de la
tangente hiperblica)
iv) Los pesos se pueden calcular a partir de la pseudoinversa de las
salidas de la capa oculta, multiplicadas por las entradas a las
neuronas de salida.
En este mtodo se utilizan tres parmetros que hay que escoger: el nmero
KNN de vecinos a usar en el mtodo de k-vecinos ms prximos, el umbral lmite
ACEPTAR para rechazar patrones que estn en la regin de no aceptacin y b.

6.2.12. Mtodo 12
En la referencia [9] se describe un nuevo mtodo de inicializacin basado en
conceptos geomtricos.
Como hemos visto hasta ahora, la existencia de falsos mnimos locales
deteriora el funcionamiento de las redes disminuyendo su eficiencia e, incluso,
impidiendo la convergencia o haciendo esta muy lenta.

- 253 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

En la referencia los autores apuntan algunas de las causan que provocan la


aparicin de estos falsos mnimos:

Aquellos nodos ocultos cuyos lmites de decisin (hiperplanos de


separacin de clases) estn fuera de la regin del espacio de
presentacin de ejemplos, o patrones a la red.

Funciones duplicadas de nodos ocultos.

Nodos que son inactivos en las regiones de los ejemplos y que


generan regiones muertas.

En la referencia se dice que un mtodo que intente evitar el problema de


aparicin de mnimo local, debera inicializar los pesos de forma que se cumpla:
1. Los lmites de decisin de las unidades ocultas deberan posicionarse en
las regiones que ocupan los patrones de entrada.
2. Las orientaciones de los lmites de decisin de las unidades ocultas
deben ser lo ms variadas posibles.
3. Cada parte de la regin de ejemplos necesita tener, al menos, una unidad
oculta que active los ejemplos que ocupan esta regin.
En coordenadas cartesianas en un sistema n dimensional los hiperplanos de
decisin asociados a las unidades de la capa oculta, estn matemticamente
descritos por los pesos que llegan a cada nodo (pesos entre la capa de entrada y
oculta).
En este mtodo se propone hacer un cambio a coordenadas esfricas. Se
r
define entonces un vector r n-dimensional de longitud r y (n-1) ngulos
(1 ,..., ( n -1) ) , y con ellos se podr hacer referencia a los hiperplanos
perpendiculares a dicho vector posicionados en un punto.
La longitud r del vector controla la distancia de separacin entre los
hiperplanos y el centro de las reas donde se encuentran los datos, y los ngulos
controlan las orientaciones de los hiperplanos.
Hay que escoger los ngulos y longitudes de los vectores de forma que los
hiperplanos de decisin estn uniformemente distribuidos a travs del espacio de
caractersticas, y que al mismo tiempo se maximicen las diferentes orientaciones
entre los diferentes nodos ocultos.
Para un espacio n-dimensional tendremos para cada unidad oculta un vector
de ngulos (n-1)-dimensional. Para que se cumplan las condiciones anteriores, sus

- 254 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

valores sern diferentes si el nmero de la neurona oculta es par o impar (difieren


r
en p). Dada una unidad oculta j, el vector j de (n-1) ngulos ser:

Nhidden j

j +

Nhidden

si j par , "i = 1,..., n - 1

(6.55)

si j impar , "i = 1,..., n - 1

Donde Nhidden es el nmero total de unidades ocultas de la red.


Las longitudes de los vectores, parmetros r, se escogen de forma que
cumplan las condiciones anteriores. En la referencia se realiza la siguiente
asignacin:
Para j = 1 hasta Nhidden
j

r =

(6.56)

0.5
j

El vector que define la orientacin del hiperplano j vendr dado por los
ngulos segn la ecuacin:

w j = cos(1 j ), sen(1 j ),..., sen( ( n -1) j )

(6.57)

Construimos la matriz W de dimensin (Nhidden*n) con los vectores fila wj.


Un punto del hiperplano se calcula multiplicando por la longitud del vector r.
Los umbrales de las conexiones a la capa oculta se pueden calcular con:
B=-

(W Punto )T = (W (r W ))T

(6.58)

i =1

Donde B ser un vector fila de dimensin Nhidden que representa las


conexiones entre la neurona umbral en la capa de entrada y las neuronas ocultas,
(las bj).
Podemos calcular la norma para cada vector orientacin j de una unidad
oculta, a partir de la ecuacin (6.57), como la raz cuadrada de la suma de los
cuadrados de las componentes de dicho vector. El vector normalizado w j que nos
define la orientacin del hiperplano (perpendicular a este) ser:
w j =

wj
wj

- 255 -

(6.59)

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Construimos de nuevo la matriz W de dimensin (Nhidden*n) con los


vectores fila w j .
Hasta ahora hemos escogido la posicin de los lmites de decisin es, decir,
donde se cumple:
y=

(6.60)

ji xi + b j = 0
i =1

Queda por escoger la pendiente de la funcin de transferencia. En la


referencia no se especifica la forma de calcularla, por lo que en nuestra
investigacin hemos optado por utilizar el procedimiento desarrollado en uno de
los mtodos aqu descrito, el mtodo 9.
En l, se define la sensibilidad como un vector de sensibilidades de
dimensin (Nhiddenx1) escogidas aleatoriamente en el intervalo [1,5].
Transformamos el vector de sensibilidades en una matriz S de dimensin
(NhiddenxNinput) repitiendo en cada columna el vector de sensibilidades.
Los pesos, podrn calculase, como el producto elemento a elemento de la
matriz de sensibilidades por la matriz W de orientaciones normalizadas.
WI

tal que WI ij = S ij Wij

"i, j

(6.61)

La matriz de pesos total entre la capa de entrada y oculta ser:


WTOTAL = [B T

M WI ]

(6.62)

En cuanto a la eleccin de los pesos entre la capa oculta y la de salida, en la


referencia se aconseja inicializarlos a un valor fijo suficientemente pequeo, por
ejemplo, igual o inferior a 0.25. En nuestras investigaciones hemos tomado todos
los valores de dichos pesos iguales a 0.1.

6.2.13. Mtodo 13
En la referencia [26], se describe un nuevo mtodo que utiliza un
aprendizaje no supervisado en el proceso de inicializacin de pesos.
Los pesos entre la capa de entrada y la capa oculta pueden ser determinados
a travs de variaciones lineales o no lineales, de las llamadas reglas de
aprendizaje Hebianas generalizadas (en ingls generalized Hebbian learning
rules), tambin conocidas como Reglas de Oja. En la investigacin, se utilizaran

- 256 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

diferentes reglas para evaluar despus experimentalmente su eficiencia en la


convergencia.
Presentaremos en primer lugar las reglas de aprendizaje Hebiana
generalizadas, que se utilizan en la referencia para inicializar la representacin
interna de la red (pesos) a travs de un proceso de aprendizaje no supervisado.
Consideremos una red Multilayer Feedforward con una capa oculta.
Definimos los siguientes parmetros:
Unidades de entradas a la red

x m, k m = 1,2,..., N
r

Vector de salida de las neuronas de entrada x k T = (1, x1,k , x 2,k ,..., x N ,k )


Salidas de las neuronas ocultas

r
r
ho j ,k = (hi j ,k ) = (v j T x k )

Pesos entre capa de entrada y oculta

r
v j T = (v j 0 , v j1 ,..., v jN )

Vector de salida de las neuronas ocultas

r
hk T = (1, ho1,k , ho 2,k ,..., ho Nh,k )

Salidas de las neuronas de salida

r
r
ooi ,k = (oii ,k ) = ( wi T hk )

Funciones de activacin

(.) y (.)

La funcin de activacin utilizada aqu ser la tangente hiperblica, tanto


para la capa oculta, como para la capa de salida.
La representacin interna de la red puede ser inicializada actualizando los
valores de los pesos V que conectan las entradas, con las unidades ocultas de
acuerdo con la regla Hebiana generalizada.
Primer caso
Primero vamos a considerar el caso de que las unidades de salida ocultas
r
r
r
sean lineales. Sea Vk -1 = [v1,k -1 , v 2,k -1 ,..., v Nh,k -1 ] la matriz de pesos resultante de la
actualizacin de los pesos con respecto a las entradas xp para p=k-1.
Segn la regla de Oja, se puede obtener la matriz V de pesos con respecto de
r
los vectores de entrada x k con la ecuacin:
r r
Vk = Vk -1 + a (I - Vk -1 VkT-1 ) x k x kT Vk -1
r
r
r
= Vk -1 + a x k - Vk -1 h ik h ikT

r
r
si h ik = VkT-1 x k

Segn la ecuacin anterior, cada vector de pesos vendr dado por:

- 257 -

(6.63)

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

Nh
r

r
r
r
vi ,k = vi ,k -1 + a hii ,k x k - him,k v m ,k -1

m =1

(6.64)

Se pueden dar varios casos:


1) Si Nh<N significa que los vectores columna de la matriz de pesos V son
ortonormales, por lo que habr solucin estable si VT.V=I. Se puede
r
r
establecer la condicin de parada del algoritmo si h ik = V T sk , donde
r
r
s k = V h ik . Despus de completado cada ciclo, es decir, los valores de
los vectores de pesos han sido todos actualizados con respecto a todos
los vectores de entrada, la proximidad de la estimacin de V a una
solucin estable se medir a partir del error. El proceso de
entrenamiento no supervisado se acaba si el error es lo suficientemente
r
r 2
m
pequeo. E v = k =1 h ik - V T s k .
2) Si Nh>N, la matriz de covarianzas de entrada es definida positiva,
entonces habr solucin estable s y solo s V.VT=I. Esto quiere decir
que las filas de V son ortonormales. Si V es una solucin estable
r
r
r
r
entonces x k = V h ik , donde h i k = V T x k . El criterio de parada ser que el
r 2
r
m
error sea suficientemente pequeo. E v = k =1 x k - V h i k .
3) Si Nh=N, la matriz cuadrada V es una solucin estable si las columnas y
filas son ortonormales. Entonces, se puede introducir como medida de
parada cualquiera de los criterios de los dos puntos anteriores.
Segundo caso
La regla de aprendizaje lineal puede ser generalizada para incluir funciones
de activacin no lineales.
Oja y otros desarrollaron una variante para las reglas no lineales de
actualizacin. Segn la regla de Oja se actualiza la ecuacin (6.63) a la expresin:
r
r
r
Vk = Vk -1 + a x k - Vk -1 Ld h ik Lh h ikT
r
Donde
Lh h i kT = [ Lh (hi1,k ), Lh (hi2,k ),..., Lh (hi Nh ,k ) ]

(
( )

)) (

(6.65)

Claramente la regla lineal puede ser interpretada como un caso especial


donde Lh(z)=Ld(z)=z.
La ecuacin para cada vector de pesos puede obtenerse:
Nh
r

r
r
r
vi ,k = vi ,k -1 + a Lh (hii ,k ) x k Ld (hi m,k ) v m ,k -1

m =1

- 258 -

(6.66)

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

El criterio de parada, se puede establecer teniendo en cuenta el criterio para


el caso de la regla de actualizacin lineal.
1) Si Nh<N, el criterio se basa en la disminucin del error
r
r
r
r 2
Nh
m
E v = k =1 h ik - V T s k , donde s k = m =1 Ld (him,k ) v m
2) Si Nh>N, la terminacin del proceso no supervisado se basa en el error
r
r 2
r
Nh r
Nh
E v = k =1 x k - m =1 Ld (him ,k ) v m , donde h ik = V T x k .
Proceso de aprendizaje
La inicializacin de los pesos comienza aplicando el proceso de aprendizaje
no supervisado (regla de Oja) sobre los pesos del primer nivel (entre la capa de
entrada y oculta). El algoritmo aplicado ser el siguiente:
1) Inicializar aleatoriamente los pesos en un cierto intervalo.
2) Seleccionar las funciones Lh(.) y Ld(.) y el valor de . Poner p=1.
3) PARA cada k=1,2,...,m (ndice de patrones de entrada)
r

i) Calcular h ik = V T x k
r

ii) Actualizar vi ,k i = 1,2,..., Nh usando la ecuacin (6.66).


r

iii) Calcular h ik = V T x k y s k = m =1 Ld (him,k ) v m , k=1,2,...,m


Nh

iv) Si Nh<N entonces: E v = k =1 h ik - V T sk


r

Si Nh>N entonces: E v = k =1 || x k - m=1 Ld (him,k ) v m ||2


Nh

Nh

v) Si p>1 entonces: E vrel = (E vold - E v ) E vold ;

E vold = E v

vi) Si (p=1) OR ( E vrel > E vo ) entonces: p=p+1 y volver al punto 3.


Si no ACABAR.
Como vemos, la condicin de parada del algoritmo es que el error relativo
sea menor que un cierto umbral que nosotros fijamos. En la referencia, se
recomienda un valor pequeo y nosotros hemos tomado 0.01.
Como valor de hemos tomado 0.001 tal y como se recomienda en la
referencia [26].

- 259 -

6.2. DESCRIPCIN DE LOS DIFERENTES MTODOS

En cuanto a la eleccin de las funciones Lh(.) y Ld(.) hemos considerado tres


casos particulares.
Primer caso:

Lh(z)=z y Ld(z)=tanh(z)(1-tanh(z)2)

Segundo caso: Lh(z)=tanh(z) y Ld(z)=z


Tercer caso:

Mtodo13a
Mtodo13b

Lh(z)=tanh(z) y Ld(z)= tanh(z)(1-tanh(z)2) Mtodo13c

Obteniendo as tres aplicaciones diferentes del mtodo.


Faltan por calcular los pesos entre la capa oculta y la capa de salida. Para
ello, la referencia recomienda realizar un entrenamiento supervisado partiendo de
los valores de los pesos entre la primera y segunda capa que ya hemos calculado
(fijarlos), y realizar un entrenamiento para adaptar los pesos de salida.
Nosotros hemos aplicado Backpropagation y hemos establecido la
condicin de parada evaluando si el error relativo, (E_old-Error)/E_old, es menor
que el valor de parada que fijamos antes, siendo Error el error cuadrtico medio y
las funciones de activacin de la red tangente hiperblica.

- 260 -

6.3. METODOLOGA

6.3. Metodologa
El objetivo principal de la investigacin desarrollada en este captulo es
evaluar la eficiencia de diferentes mtodos de inicializacin de pesos, con relacin
al procedimiento de inicializacin clsico.
En el apartado anterior se describieron detalladamente 13 mtodos
diferentes de inicializacin de pesos, en donde el primero de ellos es la
inicializacin clsica.
Algunos autores a la hora de desarrollar sus mtodos han tenido en cuenta
qu funcin de transferencia (sigmoide o tangente hiperblica) sera utilizada
posteriormente para el entrenamiento de la red.
As, podemos encontrar varios mtodos que se enfocaron al uso de la
sigmoide y algunos que utilizan exclusivamente la tangente hiperblica.
En el resto de mtodos no se especific el tipo de funcin de transferencia y
en principio son vlidos para cualquiera de las dos, pero adaptando los datos a un
intervalo adecuado. Nosotros hemos utilizado para la sigmoide datos
normalizados en el intervalo [0,1], y para la tangente hiperblica datos
normalizados en [-1,1].
Puesto que el tipo de funcin de transferencia era diferente en los mtodos,
pensamos que para poder realizar una comparacin fiable entre ellos deberamos
ver en qu sentido podra influir esto. Por ello, en nuestras investigaciones antes
de enfrentarnos al problema de utilizar todos los mtodos realizamos una pequea
prueba.
Partimos de los 6 primeros mtodos, pensados para la utilizacin de la
funcin de transferencia sigmoide y evaluamos su eficiencia con 8 problemas de
clasificacin.
Para tener una medida relativa de la eficiencia que proporcionaban ambas
funciones de transferencia, adaptamos el mtodo clsico (mtodo 1) para utilizar
como funcin de transferencia la tangente hiperblica. Esto lo realizamos
simplemente adaptando los datos de los problemas para que estuviesen
normalizados en el intervalo [-1,1].
Despus comparamos los resultados obtenidos para el mtodo 1 tanto
cuando utilizamos la funcin sigmoide como cuando utilizamos la tangente
hiperblica. As, nos dimos cuenta que el uso de la funcin de transferencia
tangente hiperblica, mejoraba en gran medida tanto la capacidad de

- 261 -

6.3. METODOLOGA

generalizacin como la velocidad de convergencia, manteniendo en general un


valor similar de la probabilidad de xito en la convergencia.
Por ello, decidimos finalmente utilizar la funcin de transferencia tangente
hiperblica en los 13 mtodos. Para ello, adaptamos los datos de cada problema
para que estuvieran normalizados en el intervalo [-1,1]. Para algunos de los
mtodos (que usaban la sigmoide) tuvimos tambin que modificar algunas
ecuaciones. En el apartado 6.2 de este captulo en la descripcin de cada mtodo
se indicaron los cambios realizados.
Finalmente, la metodologa general usada en nuestras investigaciones fue la
de aplicar los mtodos de inicializacin a diferentes problemas de clasificacin,
obteniendo para cada mtodo y problema un conjunto de pesos. Realizamos
diferentes aplicaciones de un mtodo obteniendo diferentes conjuntos de pesos
inicializados para dicho mtodo (Nredes inicializaciones por cada mtodo). Para
cada problema utilizamos tambin diferentes particiones de datos entre conjunto
de entrenamiento, cros-validacin y test (Nredes particiones). As para cada
problema y mtodo se entrenaron finalmente varias redes (Nredes) con las
diferentes inicializaciones de pesos y particiones de datos.
Primero, slo usamos los mtodos basados en la sigmoide (con 20 redes), y
despus, repetimos los experimentos con todos los mtodos adaptados al uso de la
tangente hiperblica (con 30 redes).
Al principio de este captulo, se justific de qu manera la inicializacin de
los pesos influa sobre la convergencia de la red neuronal. Las propiedades de
convergencia que se ven generalmente afectadas son: la velocidad de
convergencia, la probabilidad de que haya xito en la convergencia y la capacidad
de generalizacin (eficiencia final de la red).
Por ello, nosotros hemos realizado el estudio comparativo desde esos tres
puntos de vista.
La probabilidad de xito en la convergencia para cada problema y mtodo,
se medir por el nmero de redes que no convergen N, con respecto al nmero
de redes entrenadas, Nredes (20 o 30 segn el caso).
Consideramos que una red no ha convergido cuando su porcentaje de
aciertos con el conjunto de cros-validacin es inaceptable. Ms concretamente,
consideramos que la red no ha convergido si su porcentaje de cros-validacin es
inferior en un 10 o 15% a los valores ms altos del porcentaje de cros-validacin
que se obtienen con las dems redes entrenadas.

- 262 -

6.3. METODOLOGA

La velocidad en la convergencia se mide a travs del nmero de pocas de


convergencia. Para determinar dicho valor se ha utilizado cros-validacin en el
proceso de entrenamiento. La velocidad de convergencia, que denominaremos
como ITER, vendr dada por la media de los (Nredes-N) valores de los puntos
de convergencia obtenidos para las redes convergidas en cada problema y mtodo.
La capacidad de generalizacin se medir para cada problema y mtodo
calculando el porcentaje medio de correcta clasificacin en el test para las
(Nredes-N) redes convergidas y la denominaremos POR en los resultados
experimentales.
As, como resultado final, hemos medido para las diferentes redes
entrenadas para cada problema y mtodo, el porcentaje medio de aciertos obtenido
en el test (capacidad de generalizacin), la iteracin media (punto de
convergencia) hallada con cros-validacin (relacionada con la velocidad en la
convergencia), y el nmero de redes convergidas (relacionado con la probabilidad
de xito en la convergencia).
Para el mtodo 3, escogimos diferentes valores para los parmetros.
Tomamos para el momento a el valor 0.5. El nmero de iteraciones Ite lo
escogimos como un mltiplo del nmero de patrones de entrenamiento tal y como
se recomienda en la referencia [2]. Escogimos ocho combinaciones de (Ite,h) que
denominamos con las letras: a=(2.5Npattern,2), b=(5Npattern,2), c=(7.5Npattern,2),
d=(10Npattern,2), e=(2.5Npattern,4), f=(5Npattern,4), g=(7.5Npattern,4), h=(10Npattern,4) y
obtuvimos ocho resultados diferentes de la aplicacin del mtodo 3.
Para utilizar el mtodo 5 es necesario conocer los parmetros k y . Nosotros
hemos utilizados varias combinaciones de estos valores las cuales parecen
razonables viendo los experimentos realizados en la referencia [10]. Para el
parmetro k escogimos los valores 2, 5, 8 y para el parmetro tomamos los
valores 0.3, 0.6 y 0.9. De nuevo utilizamos las diferentes combinaciones de los
parmetros (, k) que llamaremos con las letras: a=(2,0.3), b=(5,0.3), c=(8,0.3),
d=(2,0.6), e=(5,0.6), f=(8,0.6), g=(2,0.9), h=(5,0.9) y i=(8,0.9). Obtendremos as
nueve resultados diferentes de la aplicacin del mtodo 5.
En el mtodo 10 escogimos el punto de convergencia de la red RCE
mediante cros-validacin. Para ese valor tendremos el nmero final de prototipos.
Aplicamos este mtodo para los diferentes valores de a=5, 10, 20, de bi=0.5, 0.8,
y de g=1, 4. Utilizamos las combinaciones (a,bi,g) que denominamos como:
a=(5,0.5,1), b=(5,0.5,4), c=(5,0.8,1), d=(5,0.8,4), e=(10,0.5,1), f=(10,0.5,4),
g=(10,0.8,1), h=(10,0.8,4), i=(20,0.5,1), j=(20,0.5,4), k=(20,0.8,1), l=(20,0.8,4) y
tenemos 12 resultados diferentes de la aplicacin de este mtodo.

- 263 -

6.3. METODOLOGA

En el mtodo 11 se utilizan tres parmetros que hay que escoger: el nmero


KNN de vecinos a usar en el mtodo de k-vecinos ms prximos, el umbral lmite
ACEPTAR para rechazar patrones que estn en la regin de no aceptacin y b. En
nuestra investigacin hemos escogido estos parmetros tal y como se sugiere en la
referencia [24]. Utilizaremos diferentes combinaciones (KNN, ACEPTAR, b) de
los parmetros que denominaremos: a=(3,0.15,0.3) , b=(3,0.15,0.5), c=(3,0.3,0.3),
d=(3,0.3,0.5), e=(5,0.15,0.3), f=(5,0.15,0.5), g=(5,0.3,0.3), h=(5,0.3,0.5),
i=(8,0.15,0.3), j=(8,0.15,0.5), k=(8,0.3,0.3), l=(8,0.3,0.5). Obtenemos as 12
resultados diferentes de la aplicacin del mtodo 11.
Los mtodos 10 y 11 seleccionan adems el nmero de unidades ocultas de
las redes que se entrenarn. Para el mtodo 10 el valor final del nmero de
unidades ocultas que se obtiene es independiente de los parmetros a, bi, g
utilizados en el mtodo. Sin embargo, para el mtodo 11, el valor final del nmero
de unidades ocultas de la red a entrenar depende de los parmetros KNN y
ACEPTAR obteniendo diferentes resultados segn sus valores.
En el apartado de resultados experimentales mostramos con ms detalle
cada uno de los pasos seguidos en nuestra investigacin.

- 264 -

6.4. DESARROLLO EXPERIMENTAL

6.4. Desarrollo Experimental


Como hemos comentado antes, inicialmente realizamos una pequea prueba
con 6 mtodos de inicializacin basados en la funcin de transferencia sigmoide,
aplicandolos a 7 problemas de clasificacin: Glass Identification (GL), Heart
Disease (HE), The Monks Problems (M1, M2, M3), 1984 U.S. Congressional
Voting Records (VO), Wisconsin Diagnostic Breast Cancer (WD).
El siguiente paso fue obtener, a partir de la programacin y ejecucin de
cada uno de los mtodos, los conjuntos iniciales de pesos que utilizaramos para el
entrenamiento de las diferentes redes.
Para que los resultados que obtengamos sean independientes de la
inicializacin (que todava tiene componentes aleatorias) y de la particin de los
datos en entrenamiento, cros-validacin y test, hemos realizado para cada
problema 20 diferentes particiones aleatorias de los datos y hemos utilizado aqu
datos normalizados en el intervalo [0,1]. Cada aplicacin de un mtodo generar
un conjunto diferente de pesos inicializados (uno para cada red que entrenemos).
Las particiones de los datos se realizaron de la forma que se indica en la
Tabla 1 del apndice, escogiendo despus para cada particin de forma aleatoria
los ejemplos que pertenecen a cada grupo.
Para cada mtodo, con cada conjunto de pesos (20 diferentes
inicializaciones para un mtodo), y las particiones realizadas para un cierto
problema se entrenaron 20 redes. Con cada una de las redes convergidas, se
obtuvo el punto de convergencia utilizando cros-validacin, y se realizo el test
calculando el porcentaje de correcta clasificacin, que mide la capacidad de
generalizacin.
Para las redes que haban convergido (Nredes-N) se calcul la media de los
resultados obteniendo los valores de ITER (iteracin media de convergencia) y
POR (eficiencia media en el test) con su error.
En la Tabla 2 del apndice del captulo, se muestran los resultados obtenidos
para los 6 mtodos utilizando en el entrenamiento la funcin de transferencia
sigmoide, y para 7 problemas de clasificacin.
En dicha tabla, cada fila representa un mtodo y para cada problema hay
tres columnas. La primera POR, representa el porcentaje medio de correcta
clasificacin (para las redes convergidas), la segunda N mide el nmero de redes
que no han convergido de las 20 redes entrenadas y la tercera ITER, representa el
valor medio del punto de convergencia de las redes convergidas.

- 265 -

6.4. DESARROLLO EXPERIMENTAL

De la Tabla 2 se obtienen algunos resultados previos.


Se puede observar que no hay diferencias signifitivas entre los mtodos 1 y
2 en ninguno de los tres aspectos que estudiamos.
Para el mtodo 3 se observa que la relacin de xito en la convergencia es
muy baja. El mtodo no funciona bien. La razn puede ser que en dicho mtodo
hay que escoger una serie de parmetros. Sin embargo, nosotros hemos probado
con seis diferentes combinaciones de los mismos en los rangos que se sugieren en
la referencia [2]. Podr.ocurrir que el mtodo sea muy sensible a los parmetros y
que estos dependan mucho del problema particular.
El mtodo 4 resulta similar al mtodo 1. Sin embargo, se observa que para
el problema M2 no funciona, la relacin de xito en la convergencia es del 0%.
Pensamos que este resultado no es debido a un error en nuestras simulaciones sino
que es debido al problema particular (M2).
El mtodo 5 ha sido evaluado para nueve combinaciones de los parmetros
y el resultado obtenido es muy variado. El principal resultado es una alta
variabilidad.
Y por ltimo, en la Tabla 2, los resultados del mtodo 6 son similares a los
del mtodo 1, aunque para el caso de la velocidad de convergencia se encuentra
de nuevo algo de variabilidad, en unos problemas es mejor el mtodo 6, M1, M3 y
WD y en otros es peor, GL, HE, M2 y VO.
Para tener una medida relativa de la eficiencia proporcionada por la funcin
de transferencia sigmoide y la funcin tangente hiperblica, adaptamos el mtodo
clsico (mtodo 1) para el uso de la tangente hiperblica. Para ello, simplemente
adaptamos los datos de los problemas normalizandolos en el intervalo [-1,1].
Despus entrenamos 20 redes (con 20 diferentes particiones de datos y las
inicializaciones de los pesos obtenidas) pero ahora, con los datos normalizados en
el intervalo [-1,1] y utilizando como funcin de transferencia la tangente
hiperblica.
En la Tabla 3 del apndice del captulo se muestran los resultados del
mtodo 1 con funcin de transferencia tangente hiperblica, obtenidos para cada
uno de los 7 problemas de clasificacin utilizados.
Comparando los resultados obtenidos para el mtodo 1 con funcin de
transferencia sigmoide (Tabla 2) y con tangente hiperblica (Tabla 3), podemos
observar de que el uso de la funcin de transferencia tangente hiperblica mejora
en gran medida tanto la capacidad de generalizacin (mejor en GL, HE, M1, M2 y
- 266 -

6.4. DESARROLLO EXPERIMENTAL

M3, muy parecido en el resto), como la velocidad de convergencia, en GL, M1,


M2 y M3 (en el resto de problemas parecido), siendo casi iguales los resultados de
la probabilidad de xito en la convergencia.
Por esta razn, decidimos utilizar la tangente hiperblica en los 13 mtodos.
Para ello, adaptamos los datos de cada problema para que estuvieran normalizados
en el intervalo [-1,1]. Para algunos de los mtodos (que usaban la sigmoide)
tuvimos tambin que modificar algunas ecuaciones. En el apartado 6.2 del
captulo se indicaron los cambios realizados en la descripcin de cada mtodo.
Se aplicaron finalmente los 13 mtodos a 12 problemas diferentes de
clasificacin del repositorio UCI.
Las bases de datos usadas fueron: Balance Scale Weight & Distance (BL),
Cylinder Bands (BN), BUPA Liver Disorders (BU), Credit Approval (CR),
Display1 (D1), Glass Identification (GL), Heart Disease (HE), Imagen
Segmentation (IM), The Monks Problems (M1, M2), Pima Indians Diabetes (PI),
1984 U.S. Congressional Voting Records (VO).
Para cada mtodo y para cada problema hemos realizado 30 particiones
diferentes de los datos entre entrenamiento, cros-validacin y test.
Igual que antes, aplicamos los diferentes mtodos y obtuvimos los diferentes
conjuntos de pesos iniciales para cada uno de ellos.
En la aplicacin de los mtodos 10 y 11 se obtiene adems de la
inicializacin de pesos, el nmero de unidades ocultas que se debe utilizar en las
redes que entrenaremos.
Los resultados obtenidos referentes al nmero de unidades ocultas para el
mtodo 10 (el que utiliza prototipos), se pueden encontrar en la Tabla 4 del
apndice del captulo. All se muestra, para cada problema, el valor mximo y
mnimo del nmero de unidades ocultas utilizado, el valor medio del nmero de
unidades ocultas y la desviacin estndar en el nmero de unidades ocultas. Se
puede observar que el nmero medio de unidades ocultas es exageradamente
grande en algunos problemas, como por ejemplo IM y PI y en general demasiado
alto en todos los dems. Pensamos pues, que este mtodo no suministra una buena
eleccin del nmero de unidades ocultas.
Por otro lado, para el mtodo 11 se obtuvo que el nmero medio de
unidades ocultas dependa de los parmetros KNN (nmero de k-vecinos) y
ACEPTAR (umbral para rechazar patrones). Se obtuvieron diferentes valores
dependiendo de la eleccin particular de ellos. Como dijimos en la metodologa

- 267 -

6.4. DESARROLLO EXPERIMENTAL

utilizamos 12 combinaciones diferentes para los parmetros. En la Tabla 5 del


apndice del captulo se encuentran los valores obtenidos para una de estas
combinaciones (combinacin denotada como a). Hay algunos problemas en los
que el nmero de unidades ocultas es un poco alto, pero en otros casos es
aceptable.
Una vez aplicados los diferentes mtodos y obtenidos los diferentes
conjuntos de pesos iniciales para cada uno de ellos, pasamos a la fase de
entrenamiento.
Para cada mtodo, con cada conjunto de pesos inicializados y las particiones
realizadas entrenamos finalmente 30 redes. Igual que antes, para aquellas redes
que convergan, obtuvimos el punto de convergencia utilizando cros-validacin y
despus realizamos el test calculando el porcentaje de correcta clasificacin para
cada red.
De nuevo, calculamos la media de los resultados obteniendo los valores de
ITER (iteracin media de convergencia) y POR (eficiencia media en el test) para
las redes convergidas.
En la Tabla 6 del apndice del captulo se muestran los resultados para los
13 mtodos (filas) utilizando en el entrenamiento la funcin de transferencia
tangente hiperblica, y para los 12 problemas de clasificacin (columnas). Para
cada problema tenemos de nuevo tres columnas: POR (valor medio de los
porcentajes de correcta clasificacin), N (nmero de redes que no convergen),
ITER (valor medio de la poca de convergencia).
Para algunos de los mtodos, como dijimos en la metodologa, tuvimos que
seleccionar algunos parmetros por lo que el resultado final poda depender de los
valores escogidos. Por ello, aplicamos cada uno de estos mtodos con diferentes
valores de los parmetros, obteniendo diferente inicializacin de los pesos.
Despus entrenamos 30 redes para cada una de las inicializaciones de pesos y las
30 particiones de datos y obtuvimos, finalmente, diferentes resultados segn el
valor utilizado para los parmetros.
Por ejemplo, para el mtodo 3 escogimos un valor del momento a fijo de
0.5 y ocho parejas de valores de los parmetros (Ite,h). En la Tabla 6 se muestran
los resultados del mtodo para las diferentes combinaciones, con el nombre del
mtodo seguido de la letra que corresponde a la combinacin de los parmetros tal
y como describimos en el apartado de metodologa.

- 268 -

6.4. DESARROLLO EXPERIMENTAL

Comparemos ahora los diferentes mtodos respecto al primero, que


representaba la inicializacin clsica.
En primer lugar se puede observar que los resultados de la Tabla 6 son
mejores que los de la Tabla 2 (menos en VO que son parecidos), por lo cual la
aplicacin de la tangente hiperblica ha mejorado considerablemente los
resultados de todos los problemas y mtodos.
De nuevo observamos que el mtodo 3 no funciona ya que el nmero de
redes que no convergen es inaceptable.
El mtodo 2, en general, presenta una capacidad de generalizacin
ligeramente mejor que la del mtodo1. Por ejemplo, si miramos en la Tabla 6, en
los problemas BU, D1, HE, M1, M2, PI y VO, la capacidad de generalizacin es
ligeramente mejor que en el mtodo 1, en BL, BN, CR es muy parecida y en GL,
IM ligeramente peor.
El nmero de redes convergidas para el mtodo 2 es tambin mayor que en
el mtodo 1, y la velocidad de convergencia unas veces es mejor y otras peor, no
obtenemos un resultado claro al respecto.
El mtodo 4 proporciona una capacidad de generalizacin mayor que la del
mtodo 1 y los resultados de la probabilidad de convergencia tambin son
mejores. La velocidad de convergencia es similar o ligeramente inferior que en el
mtodo 1.
La capacidad de generalizacin para el mtodo 5 (para los mejores valores
de los parmetros) es claramente mejor que la del mtodo 1. La probabilidad de
convergencia se puede considerar muy similar, unas veces peor y otras mejor y la
velocidad de convergencia es inferior que la obtenida en el mtodo 1.
Los resultados del mtodo 6 son en general peores que los del mtodo 1. El
mtodo 6 tiene una capacidad de generalizacin inferior al mtodo 1 en casi todos
los problemas, la probabilidad de convergencia es tambin ligeramente inferior y
la velocidad de convergencia es claramente peor.
En el mtodo 7 se puede observar que para las bases de datos BN, BU, CR,
D1, M1 y M2, la capacidad de generalizacin es mejor que la del mtodo 1. Por el
contrario, es peor para los problemas BL, GL, HE y IM e igual para PI y VO.
La probabilidad de convergencia del mtodo 7 es muy similar a la obtenida
en el mtodo 1 en todos los problemas, slo para BN resulta mejor y para BU, GL
y IM un poco peor.

- 269 -

6.4. DESARROLLO EXPERIMENTAL

Finalmente la velocidad de convergencia del mtodo 7 presenta una alta


variabilidad, es peor que la del mtodo 1 para los problemas BL, BU, GL, IM y
M2, y mejor en los problemas BN, CR, D1, M1 y PI e igual en HE y VO.
Podemos concluir que el mtodo 7 es muy similar al mtodo 1 si
consideramos todos los aspectos.
El mtodo 8a, denominado Forward Estimation algorithm funciona peor
que el mtodo 1 en todos los problemas y aspectos considerados.
El mtodo 8b, denominado Recurrent Estimation algorithm no fue aplicable
en ninguno de los problemas debido a que MATLAB encontr matrices singulares
en el clculo del rango de algunas matrices.
El mtodo 9 tambin result peor que el mtodo 1 en todos los problemas.
El mtodo 10 funciona en general mal. La capacidad de generalizacin es,
en general, peor que la del mtodo 1 en todos los problemas, aunque en algunos
casos tiene un valor similar. Se puede observar que existe una alta dependencia de
los resultados con los valores escogidos para los parmetros que utiliza el mtodo
(12 combinaciones diferentes), y para el problema particular al que se aplica.
As, por ejemplo, para el problema BN, CR, HE y VO se obtienen valores
de la capacidad de generalizacin del mtodo 10 (para ciertas combinaciones de
los valores de los parmetros) ligeramente peores que los que proporciona el
mtodo 1. Por ejemplo, para CR los resultados de la capacidad de generalizacin
que denotamos como f,h,i,j son similares a los del mtodo 1 (aunque peores), y los
que denotamos g,k son casi iguales. En el resto de casos es peor al resultado
proporcionado por el mtodo 1.
En otros problemas como GL, IM el valor de la capacidad de generalizacin
obtenida por el mtodo 10 no es aceptable, se podra decir que las redes no han
convergido. En estos casos se obtuvo adems que el nmero de redes que no
convergieron era alto en comparacin con el resultado del mtodo 1.
Para algunos problemas como BN existen combinaciones de los parmetros
en el mtodo 10, b, e, f, i, en los que el xito en la convergencia es similar al
mtodo 1. En estos casos la velocidad de convergencia es mejor que la del mtodo
1 aunque la capacidad de generalizacin es un poco peor. Algo parecido ocurre
con los problemas CR y HE.
En definitiva, los resultados del mtodo 10 presentan alta dependencia con
el problema particular y con los valores de los parmetros que escojamos, aunque
ninguna de nuestras elecciones parece especialmente mejor.
- 270 -

6.4. DESARROLLO EXPERIMENTAL

El mtodo 11 funciona tambin peor que el mtodo 1 y en algunos aspectos


de forma parecida al mtodo 10. Aqu tambin se escogen ciertos parmetros y
hemos probado con 12 combinaciones diferentes de los mismos.
Este mtodo se caracteriza por una baja convergencia y alta variabilidad en
la capacidad de generalizacin y la velocidad de convergencia, en funcin de la
eleccin de los parmetros. Tambin varan los resultados con los problemas.
Por ejemplo en el problema IM converge solo una red en 7 de los 12 casos y
en el resto no converge ninguna red.
Para los problemas BL, BN, CR y HE tambin se observa una variabilidad
ocasionada por la eleccin de los parmetros.
Por otra parte, tambin existen problemas en los que la capacidad de
generalizacin que se obtiene es inaceptable y se puede decir que las redes no han
convergido, por ejemplo, D1, GL, IM y M1.
Solo en el caso del problema VO los resultados del mtodo 11 son similares
a los del mtodo 1, convergen todas las redes y la capacidad de generalizacin y la
velocidad de convergencia son similares en ambos, aunque un poco peores en el
mtodo 11.
Los mtodos 12 y 13 presentan una capacidad de generalizacin inaceptable
en algunos problemas como D1, GL, IM, M1 y M2. Podemos decir que en estos
casos las redes no han convergido.
En el mtodo 12 podemos observar que el comportamiento desde el punto
de vista de la capacidad de generalizacin es similar al del mtodo 10. La
capacidad de generalizacin del mtodo 12 es peor que la del mtodo 1, el nmero
de redes convergidas es similar y la velocidad de convergencia es en general peor.
En algunos problemas como PI el comportamiento del mtodo 12 es similar
al del mtodo 1.
En el mtodo 13 la convergencia es en general un poco peor que la del
mtodo 1, la capacidad de generalizacin peor y la velocidad de convergencia
peor (salvo en los problemas que indicamos antes en los que no converga). De
nuevo para el problema VO el funcionamiento es parecido al del mtodo 1.
En general los mtodos 2, 4 y 5 parecen resultar mejores que el resto de
mtodos incluyendo la inicializacin clsica del mtodo 1. Por ello, pensamos que
es interesante su aplicacin cuando queramos obtener un buen resultado.

- 271 -

6.4. DESARROLLO EXPERIMENTAL

El resto de mtodos o funcionan peor o presentan una alta variabilidad,


dependiendo del problema concreto al que se apliquen o incluso, como hemos
visto, de la eleccin de los parmetros.
Podemos escoger pues, uno de los mtodos que proporcionan mejores
resultados y que son los mtodos 2, 4 y 5.
Los resultados muestran que los mtodos en los cuales hay que escoger
varios parmetros, no son en general adecuados para resolver el problema de
inicializacin.
Para el mtodo 5 la eficiencia varia segn el valor de los parmetros y la
eleccin de los mismos presenta una complejidad adicional.
Por ello, pensamos que el mtodo que puede resultar ms til en casi todos
los problemas es el mtodo 4, que presenta la gran ventaja de su sencillez.

- 272 -

6.5. CONCLUSIONES

6.5. Conclusiones
Hemos realizado un anlisis de la utilidad de los diferentes mtodos de
inicializacin de pesos frente a la inicializacin clsica, es decir, inicializacin
aleatoria dentro de un cierto intervalo.
El estudio ha sido realizado desde tres puntos de vista diferentes, capacidad
de generalizacin, probabilidad en la convergencia y velocidad de convergencia.
Con los resultados obtenidos podemos concluir que algunos de los mtodos
presentan ventajas con respecto al mtodo clsico, sobre todo en el aspecto de
mejorar la capacidad de generalizacin de las redes.
Por ello podemos recomendar el uso de alguno de estos mtodos para
inicilizar los pesos de las redes a la hora de resolver un problema concreto de
clasificacin.
Aunque parece que el mtodo 5 ofrece mejores resultados presenta la
dificultad de tener que escoger ciertos parmetros. Dichos parmetros influyen en
su eficiencia, aunque la sensibilidad al valor de los parmetros no fue muy alta.
Por ello, quizs sea preferible recomendar el uso del mtodo 4 debido a su
simplicidad y buenos resultados para todos los problemas estudiados.
Los resultados obtenidos en la investigacin realizada en este captulo han
sido publicados en varios congresos internacionales. En la bibliografa mostramos
sus referencias completas que son [19], [27] y [28].

- 273 -

6.6. BIBLIOGRAFA DEL CAPTULO

6.6. Bibliografa del Captulo


[1] Rumelhart, D.E., Hinton, G.E., Willians, R.J., Learning internal
representations by error backpropagation. Parallel Distributed Processing.
Cambridge MA: MIT Press. Chapter 8, pp. 318-362, 1986.
[2] Li, G., Alnuweiri, H., Wu, Y., Acceleration of Backpropagations through
Initial Weight Pre-Training with Delta Rule. Proceedings of the IEEE
International Conference on Neural Networks, vol. 1, pp. 580-585, 1993.
[3] Fahlman, S.E., An experimental study of learning speed in BackPropagation networks. CMU Technical Report, CMU-CS-162, Sept. 1988.
[4] Jacobs R.A., Increased rates of convergence through learning rate
adaptation. Neural Networks, vol. 1, 1988.
[5] Rezqui A. et al., The effect of the slope of the activation function on the
backpropagation algorithm. Proceedings of the International Joint
Conference on Neural Network, vol. 1, pp. 707-710, January 1990.
[6] Atiya, A., Ji, C., How initial conditions affect generalization performance in
large networks. IEEE Transactions on Neural Networks, vol. 8, no. 2, pp.
448-451, 1997.
[7] Rojas, R., Optimal weight initialization for neural networks, Proceedings
of the International Conference on Artificial Neural Networks (ICANN'94),
vol. 1, pp. 577-580, 1994.
[8] Drago, G.P., Ridella, S., Statistically Controlled Activation Weight
Initialization (SCAWI). IEEE Transactions on Neural Networks, vol. 3, no.
4, pp. 627-631, 1992.
[9] Wessels, L.F.A., Barnard, E., Avoiding False Local Minima by Proper
Initialization of Connections. IEEE Transactions on Neural Networks, vol.
3, no. 6, pp. 899-905, 1992.
[10] Shimodaira H., A Weight Value Initialization Method for Improved
Learning Performance of the Back Propagation Algorithm in Neural
Networks. Proceedings of the 6th International Conference on Tools with
Artificial Intelligence, pp. 672-675, 1994.
[11] Rossi, F., Gegout, C., Geometrical Initialization, Parametrization and
Control of Multilayer Perceptrons: Application to Function Approximation,
Proceedings of the IEEE International Conference on Neural Networks
(ICNN'94), vol. 1, pp. 546-550, 1994.
[12] Ho-Sub Yoon, Chang-Seok Bae, Byung-Woo Min, Neural Networks using
Modified Initial Connection Strengths by the Importance of Feature
Elements. International Conference on Systems, Man and Cybernetics, vol.
1, pp. 458-461, 1995.
[13] Chih-Liang Chen, Nutter, Roy S., Improving the Training Speed of Threelayer Feedforward Neural Nets by Optimal Estimation of the Initial
Weights. International Joint Conference on Neural Networks, vol. 3, part. 1,
pp. 2063-2068, 1991.
[14] Thimm, G., Fiesler, E.,High-Order and multilayer perceptron initialization.
IEEE Transactions on Neural Networks, vol. 8, no. 2, pp. 349-359, 1997.
[15] Yu X., Chen G., Cheng S.: Dynamic Learning Rate Optimization of the
Backpropagation Algorithm. IEEE Transaction on Neural Networks, vol. 6,
no. 3, pp. 669-677, 1995.

- 274 -

6.6. BIBLIOGRAFA DEL CAPTULO

[16] Kim, Y.K., Ra, J.B., Weight Value Initialization for Improving Training
Speed in the Backpropagation Network. Proceedings of International Joint
Conference on Neural Networks, vol. 3, pp. 2396-2401, 1991.
[17] Palubinskas, G., Data-driven Weight Initialization of Back-propagation for
Pattern Recognition. Proceedings of the International Conference on
Artificial Neural Networks (ICANN'94), vol. 2, pp. 851-854, 1994.
[18] Utans, J., Moody, J., et al., Input variable selection for neural networks:
Application to predicting the U.S. business cycle. Proceedings of IEEE/
IAFE Computational Intelligence for Financial Engineering, pp. 118-122,
1995.
[19] Fernndez, M., Hernndez, C., Input selection by Multilayer Feedforward
trained networks. Proceedings of the 1999 IEEE International Joint
Conference on Neural Networks, pp. 1834-1839, 1999
[20] Drago, G.P, Ridella S., SCAWI: an algorithm for weight initialization of a
sigmoidal neural network. Proceedings. of the International Conference on
Artificial Neural Networks (ICANN92), vol. 2, pp. 983-986, 1992.
[21] Nakayama K., Hirano A., Ido I., A multilayer neural network with
nonlinear inputs and trainable activation functions: structure and
simultaneous learning algorithms. Proceedings of the International Joint
Conference on Neural Networks, 1999.
[22] Denoeux, T., Lengell, R., Initializing Back Propagation Networks With
Prototypes. Neural Networks, vol. 6, pp. 351-363, 1993.
[23] Reilly, D.L., Cooper, L.N., Elbaum, C., A neural Model for Category
Learning. Biological Cybernetics, vol. 45, pp. 35-41, 1982.
[24] Tarek Kaylani, Sushil Dasgupta, Weight initialization of MLP classifiers
using boundary-preserving patterns. 1994.
[25] Smyth, S.G., Designing Multilayer Perceptrons from Nearest Neighbor
Systems. IEEE Transactions on Neural Networks, vol. 3, no. 2, pp. 329333. 1992.
[26] Karayiannis, N.B., Accelerating the Training of Feedforward Neural
Networks Using Generalized Hebbian Rules for Initializing the Internal
Representations. IEEE Transactions on Neural Networks, vol. 7, no. 2, pp.
419-426. March 1996.
[27] Fernndez, M., Hernndez, C., A comparison among weight inicialization
methods for Multilayer Feedforward networks. Proceedings of the 2000
IEEE International Joint Conference on Neural Networks, vol. 4, pp. 543548, 2000.
[28] Fernndez, M., Hernndez, C., Weight initialization methods for multilayer
feedforward. European Symposium on Artificial Neural Networks
(ESANN'2001). En prensa. Bruges (Belgium).

- 275 -

6.6. BIBLIOGRAFA DEL CAPTULO

- 276 -

6.7. APNDICE DEL CAPTULO

6.7. Apndice del Captulo

Tabla 1. Relacin de particiones realizadas con los datos.


PROBLEMAS TOTAL DATOS ENTRENAMIENTO CROSSVALIDACIN
625
395
105
BL
277
177
45
BN
345
220
55
BU
653
418
105
CR
2900
1830
470
D1
214
129
35
GL
297
190
48
HE
2311
1476
370
IM
432
282
70
M1
432
282
70
M2
432
282
70
M3
768
488
125
PI
435
285
70
VO
569
374
90
WD

TEST
125
55
70
130
600
50
59
465
80
80
80
155
80
105

Tabla 2. Resultados de Inicializacin de pesos con Sigmoide.

Mtodo 1
Mtodo 2
Mtodo 3b
Mtodo 3c
Mtodo 3d
Mtodo 3f
Mtodo 3g
Mtodo 3h
Mtodo 4
Mtodo 5a
Mtodo 5b
Mtodo 5c
Mtodo 5d
Mtodo 5e
Mtodo 5f
Mtodo 5g
Mtodo 5h
Mtodo 5i
Mtodo 6

POR
78.91.1
79.61.1
------------------------78.81.1
--------------------131
--------3.51.3
77.71.1

GL
N
0
0
20
20
20
20
20
20
0
20
20
20
20
20
18
20
20
16
0

ITER
1294134
1115133
------------------------1192118
--------------------3246398
--------366784
1369170

POR
80.60.9
80.71.0
52.54
----54.24
------------80.61.0
----4717
46.60.7
----83.05
45.90.6
----639
503
80.40.9

- 277 -

HE
N
0
0
19
20
19
20
20
20
0
20
17
3
20
19
3
20
16
6
0

ITER
5012
4913
2182
----3000
------------5413
----4177296
1880214
----1080
2219310
----3432580
2157344
10930

POR
73.61.1
74.90.9
------------------------73.11.1
----50.50.9
63.11.7
----53.91.7
692
----59.41.6
75.21.4
741

M1
N
0
0
20
20
20
20
20
20
0
20
0
0
20
0
0
20
0
0
0

ITER
522124
51075
------------------------697130
----732100
672106
----1169156
626134
----1062146
668131
14016

6.7. APNDICE DEL CAPTULO

Tabla 2. Resultados de Inicializacin de pesos con Sigmoide (continuacin).

Mtodo 1
Mtodo 2
Mtodo 3b
Mtodo 3c
Mtodo 3d
Mtodo 3f
Mtodo 3g
Mtodo 3h
Mtodo 4
Mtodo 5a
Mtodo 5b
Mtodo 5c
Mtodo 5d
Mtodo 5e
Mtodo 5f
Mtodo 5g
Mtodo 5h
Mtodo 5i
Mtodo 6

POR
66.30.9
66.10.9
------------------------------------614
--------636
--------668
66.90.5

M2
N
1
0
20
20
20
20
20
20
20
20
20
13
20
20
12
20
20
16
0

ITER
80682
899187
------------------------------------2259248
--------3730495
--------4122921
1490317

POR
84.11.1
83.91.2
53.75
----534
------------83.81.1
67.41.1
82.21.4
88.21.1
68.41.5
83.91.4
88.51.0
69.91.1
85.71.5
88.00.8
84.41.2

M3
N
0
0
19
20
16
20
20
20
0
0
0
0
0
0
0
0
0
0
0

Mtodo 1
Mtodo 2
Mtodo 3b
Mtodo 3c
Mtodo 3d
Mtodo 3f
Mtodo 3g
Mtodo 3h
Mtodo 4
Mtodo 5a
Mtodo 5b
Mtodo 5c
Mtodo 5d
Mtodo 5e
Mtodo 5f
Mtodo 5g
Mtodo 5h
Mtodo 5i
Mtodo 6

POR
95.90.6
95.80.6
------------------------95.90.5
--------------------------------702
95.40.6

VO
N
ITER
0
4316
0
223
20
----20
----20
----20
----20
----20
----1
274
20
----20
----20
----20
----20
----20
----20
----20
----7 217396
0
9730

POR
96.90.3
96.80.3
729
63.8
61
----61
35.24
96.90.3
--------64.40.5
--------64.40.5
--------64.50.5
96.70.3

WD
N
ITER
0
11025
0
11525
17 16836
19
159
19
2301
20
----19
3
19
930
0
10224
20
----20
----8 1986115
20
----20
----4 2064102
20
----20
----7 2090102
0
9619

- 278 -

ITER
47681
724132
1330
----324128
------------394106
37433
15722
40069
33534
17339
480102
39860
34686
22756
28645

6.7. APNDICE DEL CAPTULO

Tabla 3. Resultados de Inicializacin de pesos del Mtodo 1 con TANH.


GL
POR 90.41.1
N
0
ITER 11112

HE
81.21.1
0
22080

M1
97.60.8
0
7414

M2
72.51.2
0
500200

M3
93.91.2
2
444135

VO
94.30.5
0
12070

WD
96.10.4
0
47299

Tabla 4. Nmero de unidades ocultas obtenido por el Mtodo 10.

BL
BN
BU
CR
D1
GL
HE
IM
M1
M2
PI
VO

Nhidden
Medio
65.6
48.1
67.2
70.1
69.3
20.3
39.7
104.7
88.1
55.3
124.8
26.5

Desviacin
Nhidden
25.30
19.05
32.25
32.33
5.96
7.40
14.75
31.49
23.22
25.78
51.85
12.22

Nhidden
Mnimo
28
19
27
26
60
10
18
65
35
28
44
12

Nhidden
Maximo
108
81
121
117
80
36
67
161
134
117
214
56

Tabla 5. Nmero de unidades ocultas obtenido por el Mtodo 11.

BL
BN
BU
CR
D1
GL
HE
IM
M1
M2
PI
VO

Nhidden
Medio
32.6
10.5
32.3
13.5
7
12
10.8
39.4
51.8
35.4
29.4
13.1

Desviacin
Nhidden
4.41
1.94
6.76
2.54
0.26
2.63
2.25
7.48
12.46
7.19
3.00
4.37

- 279 -

Nhidden
Mnimo
25
7
22
9
6
7
5
27
30
19
24
4

Nhidden
Maximo
39
15
45
20
8
17
15
51
69
48
36
21

6.7. APNDICE DEL CAPTULO

Tabla 6. Resultados de Inicializacin de pesos con TANH.

Mtodo 1
Mtodo 2
Mtodo 3a
Mtodo 3b
Mtodo 3c
Mtodo 3d
Mtodo 3e
Mtodo 3f
Mtodo 3g
Mtodo 3h
Mtodo 4
Mtodo 5a
Mtodo 5b
Mtodo 5c
Mtodo 5d
Mtodo 5e
Mtodo 5f
Mtodo 5g
Mtodo 5h
Mtodo 5i
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 9
Mtodo 10a
Mtodo 10b
Mtodo 10c
Mtodo 10d
Mtodo 10e
Mtodo 10f
Mtodo 10g
Mtodo 10h
Mtodo 10i
Mtodo 10j
Mtodo 10k
Mtodo 10l
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 11i
Mtodo 11j
Mtodo 11k
Mtodo 11l
Mtodo 12
Mtodo 13a
Mtodo 13b
Mtodo 13c

POR
91.80.4
91.00.5
--------------------------------91.10.4
91.20.5
91.40.5
91.30.4
91.10.5
91.00.4
91.70.4
91.50.5
91.50.4
91.30.4
91.40.5
90.60.4
343
----802
88.70.5
85.61.0
822
79.221.2
80.8
84.61.0
824
80.8
86.50.7
83.21.0
813
78.4
502
596
502
596
544
514
482
71.20.8
4510
523
563
754
792
802
812
763

BL
N
1
0
30
30
30
30
30
30
30
30
0
0
0
0
0
0
0
0
0
0
0
1
19
-0
0
0
22
27
29
0
24
29
1
0
20
29
15
25
15
25
20
17
18
28
25
18
20
24
0
0
0
0

ITER
35080
680190
--------------------------------550120
620130
540130
1000200
1000200
720160
900200
1200300
1100200
800200
800200
1100200
10
----460130
1200300
600150
1900600
130050
2367
53080
2600900
2367
450150
490190
1500500
1229
119
3.81.0
1110
3.81.1
10
2.51.1
76
360190
10
150120
6040
1600800
530170
810190
1200200
900200

POR
66.81.3
66.91.6
64.81.1
64.81.1
64.81.1
64.81.1
64.81.1
64.81.1
64.81.1
64.81.1
68.31.7
65.51.2
67.41.4
67.11.2
68.31.2
68.51.4
66.41.1
67.01.2
67.31.1
595
65.31.3
67.71.2
613
----63.61.7
65.21.0
63.81.3
613
--66.01.2
63.91.2
644
--64.11.3
65.61.1
633
--602
583
603
583
64.21.6
62.01.8
642
613
583
603
642
603
572
583
64.41.0
583

- 280 -

BN
N
ITER
11 800300
8 720180
19
10
19
10
19
10
19
10
19
10
19
10
19
10
19
10
8 700200
5 1600400
8 900300
5 600200
4 1200300
7 1000300
6 1100300
6 470160
7 680180
6 1200200
5 800200
5 600200
18
76
-----6 690190
17 900400
12
4020
27 900700
30
--14 450190
10 300200
27 29001200
30
--14 500200
17 1100300
26 2000800
30
--6 600200
5 420130
6 600200
5 420130
5 420140
3 1000200
5 1200300
1 600200
3 700200
8 800300
6 590190
8 800200
4 1400300
6 1400300
2 1100300
8 1800300

POR
59.41.0
60.00.9
58.61.4
58.61.4
58.61.4
58.61.4
58.61.4
58.61.4
58.61.4
58.61.4
60.81.3
60.81.5
61.91.3
60.41.6
61.01.3
62.11.4
61.41.7
62.41.1
63.11.4
60.81.4
61.31.3
60.90.9
522
----54.31.5
53.31.6
513
56.31.6
50.61.8
54.71.3
45.7
54.41.4
53.71.9
56.00.6
--55.51.1
52.91.8
522
522
522
522
522
522
522
522
522
522
522
522
54.61.7
57.31.2
57.31.2
56.81.3

BU
N
3
1
23
23
23
23
23
23
23
23
3
0
5
3
2
2
3
1
1
3
4
4
11
-3
14
24
12
14
16
29
8
18
19
30
9
17
11
11
11
11
11
11
11
11
11
11
11
11
2
2
4
4

ITER
1300400
1300300
10
10
10
10
10
10
10
10
2800600
1400400
1500500
500160
1700500
1700400
1100300
1300300
1500400
1400300
2100500
1600400
10
----2000300
900400
500400
700400
400400
1200600
117
1600500
190100
3200800
--700300
320120
10
10
10
10
10
10
10
10
10
10
10
10
2300500
1500400
800200
1700400

6.7. APNDICE DEL CAPTULO

Tabla 6. Resultados de Inicializacin de pesos con TANH (continuacin).

Mtodo 1
Mtodo 2
Mtodo 3a
Mtodo 3b
Mtodo 3c
Mtodo 3d
Mtodo 3e
Mtodo 3f
Mtodo 3g
Mtodo 3h
Mtodo 4
Mtodo 5a
Mtodo 5b
Mtodo 5c
Mtodo 5d
Mtodo 5e
Mtodo 5f
Mtodo 5g
Mtodo 5h
Mtodo 5i
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 9
Mtodo 10a
Mtodo 10b
Mtodo 10c
Mtodo 10d
Mtodo 10e
Mtodo 10f
Mtodo 10g
Mtodo 10h
Mtodo 10i
Mtodo 10j
Mtodo 10k
Mtodo 10l
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 11i
Mtodo 11j
Mtodo 11k
Mtodo 11l
Mtodo 12
Mtodo 13a
Mtodo 13b
Mtodo 13c

POR
85.50.5
85.60.5
--------------------------------85.70.5
85.50.5
86.00.5
85.50.5
85.80.4
85.40.4
86.10.4
86.10.5
----85.90.5
86.10.5
86.00.5
51.91.5
----733
752
783
793
73.0
76.21.8
81.11.8
85.51.0
83.8
80.81.7
82.51.6
85.10.9
--776
773
776
773
714
753
693
703
743
713
723
733
693
673
723
713

CR
N
0
0
30
30
30
30
30
30
30
30
0
0
0
0
0
0
1
0
30
1
0
0
1
-0
0
17
18
29
0
1
20
29
0
1
20
30
26
15
26
15
15
8
0
0
2
0
0
0
0
1
8
2

ITER
1300400
1700500
--------------------------------1000400
1200300
1900500
1400400
1300400
1400400
2500500
1400400
----1100300
1700400
900300
200200
----1300400
1200400
1300800
2700800
594
900300
600200
1900600
12
1000400
1200300
1600600
--400200
1700600
400200
1700600
2000700
1100400
1500500
900300
1500400
410150
1200400
700300
800200
1900400
3500600
1700400

POR
69.30.7
71.20.6
--------------------------------71.10.5
71.40.5
70.60.6
----70.70.5
69.30.6
71.20.5
70.60.5
----71.00.5
64.81.5
70.10.6
------47.81.6
51.91.4
59.71.2
513
64.41.8
60.81.2
64.01.2
63.01.6
62.31.5
63.71.5
67.90.9
60.91.3
63.21.7
40.91.8
40.91.8
41.81.7
40.61.8
402
40.61.9
402
39.61.6
382
38.11.8
362
392
45.31.8
40.01.9
43.81.9
392

- 281 -

D1
N
3
3
30
30
30
30
30
30
30
30
3
4
3
30
3
4
3
3
30
4
5
3
30
-0
7
13
24
20
3
3
13
19
20
4
17
20
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

ITER
720140
670120
----------------------------------------1090170
870180
850160
----790130
570120
760150
650150
----880140
920170
590140
------900150
500150
270180
55090
800300
630130
350120
1000200
700300
1300300
630140
137
560190
600120
600120
960150
570120
550140
450110
480120
660160
520140
500130
750150
470110
620100
1070150
820140
1200150

POR
90.41.1
88.91.1
--------------------------------90.70.9
90.21.4
90.21.2
89.11.2
91.90.8
90.80.9
87.60.9
90.00.9
88.21.6
89.71.0
85.71.1
88.21.1
24
----473
364
473
403
505
344
484
534
584
373
333
613
554
383
335
383
326
335
446
405
458
334
407
335
323
423
554
483
494

GL
N
ITER
3
11112
2
15040
30
----30
----30
----30
----30
----30
----30
----30
----2
16040
2
19040
3
12114
2
13020
5
22040
5
9111
2
20060
2
20060
5
16040
2
13919
7 300100
5
23060
29
2029
-----5 600200
11 400200
15 1100300
7 650190
18 900200
14 900300
19 1000300
6 660170
17 800300
15 1700300
19 1900400
9 760120
18 1800400
25
10
23 300200
25
10
24 400300
27
10
27 25001000
27 3620190
23 1800500
23 900500
25 900300
28 17001300
22 1900500
3 800200
2 1100300
2 900300
0 700200

6.7. APNDICE DEL CAPTULO

Tabla 6. Resultados de Inicializacin de pesos con TANH (continuacin).

Mtodo 1
Mtodo 2
Mtodo 3a
Mtodo 3b
Mtodo 3c
Mtodo 3d
Mtodo 3e
Mtodo 3f
Mtodo 3g
Mtodo 3h
Mtodo 4
Mtodo 5a
Mtodo 5b
Mtodo 5c
Mtodo 5d
Mtodo 5e
Mtodo 5f
Mtodo 5g
Mtodo 5h
Mtodo 5i
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 9
Mtodo 10a
Mtodo 10b
Mtodo 10c
Mtodo 10d
Mtodo 10e
Mtodo 10f
Mtodo 10g
Mtodo 10h
Mtodo 10i
Mtodo 10j
Mtodo 10k
Mtodo 10l
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 11i
Mtodo 11j
Mtodo 11k
Mtodo 11l
Mtodo 12
Mtodo 13a
Mtodo 13b
Mtodo 13c

POR
81.21.1
81.71.1
75.11.5
563
784
723
655
648
78.41.9
703
80.60.8
81.00.9
81.30.8
80.30.8
81.10.8
79.81.4
80.71.1
80.00.9
81.50.9
81.71.1
80.90.8
80.81.0
654
----732
79.01.1
80.71.1
76.71.9
--78.31.2
79.71.2
76.71.7
--80.60.8
79.41.2
75.01.6
--76.71.7
75.61.9
76.71.7
75.61.9
77.71.7
78.61.5
75.81.8
762
693
683
702
712
76.71.5
713
713
723

HE
N
ITER
4
22080
3 320140
27 700700
28
10
26
98
25
10
24
10
28
10
26
10
26
10
4 430160
3 430160
2 700200
3 500200
2 630180
3 600200
3 390180
2 600200
2 400140
5 290130
3 500200
4 200100
23 600400
-----0 350140
3
9050
12 500200
23 900500
30
--1 280150
2 800300
26 370170
30
--3 340190
5 700200
26 22001100
30
--4 370150
4 530170
4 370150
4 530170
2 330170
2 900300
3 370160
3 490150
2 900300
1 370190
3
15080
3 390170
1
26080
4 800200
3 600200
4 600200

POR
722
702
--------------------------------74.71.9
702
762
693
672
732
752
752
73.71.7
722
593
702
------413
283
18.31.3
16.21.8
21.31.4
18.01.4
14.80.4
253
30.71.7
16.40.5
14.60.2
202
222
14.4
15.7
14.4
15.7
----14.0
--13.3
14.6
----374
14.50.2
272
13.60.3

- 282 -

IM
N
5
4
30
30
30
30
30
30
30
30
5
9
10
9
7
10
13
7
13
10
11
8
30
-4
16
12
25
19
12
17
25
9
13
18
19
18
29
29
29
29
30
30
29
30
29
29
30
30
12
0
20
17

ITER
710130
1010150
--------------------------------950170
1350180
1150180
1060170
1030180
1420140
970190
1100180
1300200
1100180
1040180
1090160
------1080160
600200
280120
580170
8050
16070
400200
17050
17050
330120
280190
300100
330100
1
1
1
1
----1
--1
1
----1340190
4020
830180
1770130

POR
97.60.8
98.20.8
--------------------------------97.31.1
98.70.6
96.11.2
97.31.2
97.00.8
98.10.8
97.40.9
98.30.7
----97.50.8
96.61.0
99.00.7
50.70.8
----643
--------6312
------656
--58.8
--698
705
698
705
635
683
707
685
8217
673
52.01.1
633
613
592
613
603

M1
N
2
2
30
30
30
30
30
30
30
30
1
3
1
1
0
1
1
3
30
1
1
2
4
-0
30
30
30
30
28
30
30
30
27
30
29
30
25
19
25
19
26
11
25
14
28
14
14
4
1
2
5
1

ITER
7414
200100
--------------------------------6816
565
13050
15050
22080
8030
8030
11040
----17070
10518
5413
190130
----3109
--------200200
------800500
--1303
--2400600
2500300
2400600
2500300
2200700
400200
400200
530170
1100900
550130
900200
450130
25070
410120
19040
32060

6.7. APNDICE DEL CAPTULO

Tabla 6. Resultados de Inicializacin de pesos con TANH (continuacin).

Mtodo 1
Mtodo 2
Mtodo 3a
Mtodo 3b
Mtodo 3c
Mtodo 3d
Mtodo 3e
Mtodo 3f
Mtodo 3g
Mtodo 3h
Mtodo 4
Mtodo 5a
Mtodo 5b
Mtodo 5c
Mtodo 5d
Mtodo 5e
Mtodo 5f
Mtodo 5g
Mtodo 5h
Mtodo 5i
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 9
Mtodo 10a
Mtodo 10b
Mtodo 10c
Mtodo 10d
Mtodo 10e
Mtodo 10f
Mtodo 10g
Mtodo 10h
Mtodo 10i
Mtodo 10j
Mtodo 10k
Mtodo 10l
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 11i
Mtodo 11j
Mtodo 11k
Mtodo 11l
Mtodo 12
Mtodo 13a
Mtodo 13b
Mtodo 13c

POR
72.51.2
73.81.3
613
624
623
644
54.40.6
53.10.6
595
595
71.91.0
71.40.9
72.91.1
73.40.7
72.40.9
73.71.0
72.61.1
72.91.4
72.51.0
72.80.8
72.01.3
73.11.0
54.91.5
----612
608
65
653
--575
62.5
----494
--662
--66.50.5
66.01.0
66.50.5
66.00.9
64.51.6
63.11.7
63.51.5
65.51.6
64.21.7
65.21.2
573
602
--64.01.7
632
633

M2
N
ITER
4 500200
1 900300
26
43
27 300300
27
21
27 20002000
28
10
28
10
28
10
28
10
1 700300
6 320110
5 700200
4 1100400
3 800300
1 500200
1 460140
4 1000300
1 1000300
2 1300400
7 600180
5 1000400
2
10
-----1 900300
28
115
29
350
28 450150
30
--26 14001300
29
1199
30
--30
--26 15001300
30
--27 1400600
30
--5 1200500
4 1500400
5 1200500
2 1400400
10 900400
1 1500300
3 600300
1 1500400
7 1100400
8 19001500
11 1400400
1 900300
30
--0 600200
4
20060
2 1200400

POR
75.60.5
76.00.5
65.10.8
65.20.7
65.00.8
64.90.8
64.90.9
64.90.8
65.10.8
65.10.8
74.50.7
74.80.7
75.60.7
75.50.5
76.20.7
74.50.6
74.60.7
75.10.7
74.90.6
75.60.7
74.80.6
75.20.6
64.90.9
----70.81.5
67.1
--683
66.11.0
----614
633
----71.30.3
--64.90.9
64.90.9
64.90.9
64.90.9
64.90.9
64.90.9
64.90.9
64.90.9
64.90.9
64.90.9
632
632
74.30.7
683
614
643

- 283 -

PI
N
0
0
17
14
16
17
18
17
17
17
0
0
0
0
0
0
0
0
0
0
0
0
18
-0
23
30
20
18
30
30
10
23
30
30
16
30
18
18
18
18
18
18
18
18
18
18
17
16
0
3
7
2

ITER
1400500
800400
10
10
10
10
10
10
10
10
1200500
2800800
1800600
2200600
1200500
1400500
800300
1600500
1500600
700200
1600500
900300
10
----1400500
44
--22
10
----83
22
----1700400
--10
10
10
10
10
10
10
10
10
10
140140
4030
1200400
2100600
3000800
2500600

POR
94.30.5
94.70.4
84.91.7
82.01.5
842
832
85.31.1
85.41.6
82.81.7
83.41.6
94.10.5
95.00.4
94.70.5
94.40.5
94.70.5
95.20.4
95.10.4
94.40.5
94.80.5
94.80.4
95.00.3
94.50.4
82.01.6
----89.01.9
93.21.0
91.31.8
90.11.6
--92.80.7
865
804
--90.81.2
873
703
--892
91.41.6
892
91.41.6
90.31.4
90.01.6
843
862
872
882
90.11.9
863
764
90.01.7
91.81.3
92.21.1

VO
N
0
0
19
16
19
17
19
16
18
17
0
0
0
0
0
0
0
0
0
1
0
0
14
-0
6
21
20
30
11
27
21
30
12
26
21
30
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0

ITER
12070
8050
10
130130
6060
10
10
10
10
10
12060
14070
8020
8040
15050
8050
20090
11050
9030
12070
270110
13070
5040
----19080
290110
600300
600200
--320110
1000500
900200
--500200
1400500
1100200
--17070
540150
17070
540150
390130
14040
18090
230110
9030
15060
16060
250100
270100
22090
25070
19060

6.7. APNDICE DEL CAPTULO

- 284 -

Captulo 7

CONCLUSIONES Y TRABAJOS FUTUROS

Conclusiones y Trabajos Futuros


Como hemos repetido a lo largo de esta Tesis Doctoral, su objetivo ha sido
el de realizar un estudio comparativo sobre diferentes mtodos existentes para
resolver diversos aspectos referentes al diseo de la arquitectura de red neuronal
Multilayer Feedforward, en problemas de clasificacin.
En el captulo primero, se realiz una pequea introduccin sobre diversos
conceptos de Redes Neuronales, la motivacin de este trabajo y las herramientas
de trabajo de las que hemos dispuesto en el desarrollo del mismo.
En el segundo captulo se hizo una investigacin detallada sobre el
problema de codificacin de entradas desconocidas. Se realiz un estudio
comparativo entre 5 mtodos de utilizacin de entradas desconocidas,
aplicndolos en 95 problemas de clasificacin con diferentes porcentajes de
entradas desconocidas (19 sin entradas desconocidas). Se utilizaron entradas
desconocidas tanto en el proceso de entrenamiento como en el de test y ms tarde
se estudi la influencia de los diferentes porcentajes sobre la eficiencia final de los
mtodos.
El mtodo clsico de codificacin que consiste en sustituir las entradas
desconocidas por un valor (mtodo 1), present una alta variabilidad en la
eficiencia obtenida en el test al variar el porcentaje de entradas desconocidas.
Tambin vimos que la eficiencia depende en gran medida del problema particular
y que se suele encontrar un porcentaje de entradas desconocidas a partir del cual
el mtodo deja de funcionar.
- 285 -

CONCLUSIONES Y TRABAJOS FUTUROS

Los mtodos que utilizan aritmtica de intervalo resultaron ser los ms


eficientes. El mtodo de Hernndez (mtodo 2) funcion mejor que el mtodo de
Ishibuchi (mtodo 3) para las 3 primeras reglas de clasificacin que se utilizaron
(que resultan ser las ms adecuadas). Se encontraron problemas en los cuales
exista un porcentaje de entradas desconocidas en el entrenamiento para el cual el
mtodo 3, y en ocasiones tambin el 2, dejaba de funcionar.
Realizando una comparacin entre todos los mtodos se observ: que el
mtodo 1 (clsico) funcionaba bien pero con alta variabilidad, el mtodo 4 (de
probabilidades) no funcionaba bien, el mtodo 5 (de redundancia) funcionaba bien
pero tena una aplicabilidad limitada (solo para problemas con entradas binarias) y
que los mtodos 2 y 3 (mtodos con aritmtica de intervalos), son los que mejor
resolvan cualquier problema. Entre estos ltimos recomendamos el uso del
mtodo de aritmtica de intervalos de Hernndez (mtodo 2).
En el tercer captulo, se realiz un estudio sobre la importancia de la
seleccin de la informacin de entrada a la red. Analizamos para ello 26 mtodos
existentes de seleccin de entradas, 19 basados en el anlisis de la red neuronal
Multilayer Feedforward y 7 basados en el anlisis del conjunto de entrenamiento.
Como resultado del anlisis de los mtodos se obtuvo para cada uno de ello y para
cada problema utilizado una ordenacin de las entradas a la red segn su
importancia.
Para comparar la eficiencia de los mtodos entre s, utilizamos una
metodologa que presentamos en el captulo 3. En ella, se busca el subconjunto
ptimo de entradas para cada problema y mtodo y se comparan las eficiencias
obtenidas para estos subconjuntos usando el test estadstico test-t.
Como resultado final del tercer captulo obtuvimos una ordenacin de la
eficiencia de los mtodos.
Se observ en primer lugar que los mtodos basados en el anlisis de la red
Multilayer Feedforward (ARNMF) presentan alta variabilidad en su eficiencia, y
de ellos los que funcionan mejor son ms eficientes que los mtodos basados en el
anlisis del conjunto de entrenamiento (ACE). Sin embargo, entre estos ltimos
encontramos una excepcin: el mtodo basado en el clculo de la Distancia GD
(denominado por nosotros GD_DS).
Pensamos que este mtodo puede ser muy prometedor ya que combina la
caracterstica de bajo coste computacional con la alta eficiencia de los mejores
mtodos de ARNMF. Sin embargo, hemos encontrado algunos problemas en los
cuales el mtodo GD_DS no ha sido aplicable ya que la matriz de
transinformacin que utiliza result singular. Por ello, pensamos que se podra

- 286 -

CONCLUSIONES Y TRABAJOS FUTUROS

introducir alguna mejora en dicho mtodo que solventar dicha situacin. Esto
podra ser un trabajo de investigacin futuro.
Tambin en el captulo tercero, se estudi el efecto de introducir para el
entrenamiento de las redes iniciales de los mtodos basados en el anlisis de la red
Multilayer Feedforward un trmino de regularizacin, weight-decay. Segn la
bibliografa este trmino debera mejorar la eficiencia en la tarea de seleccin de
entradas.
Aplicamos weight-decay a 17 de los mtodos ARNMF estudiados y sobre
ocho problemas. El resultado que obtuvimos fue que el empleo de weight-decay
mejoraba la eficiencia de los peores mtodos y deterioraba la eficiencia de los
mejores. En este sentido, disminuirn las diferencias entre los mtodos de
seleccin de entradas. As, al seleccionar uno cualquiera de los mtodos ARNMF
para resolver un determinado problema obtendramos una eficiencia ms uniforme
si utilizamos el trmino de regularizacin weight-decay, pero nunca
alcanzaramos la eficiencia proporcionada por los mejores mtodos ARNMF sin
el uso de weight-decay. Por ello nosotros no recomendamos su uso.
Como ejemplo de algunos de los resultados del captulo se present la
aplicacin a un caso real de patologa de la voz. En l, se consigui reducir el
nmero de entradas de la red necesario para resolver el problema de clasificar
entre voces normales y voces patolgicas de 35 a 2. Vemos as que los mtodos de
seleccin de entradas pueden ser muy tiles en la resolucin de problemas reales.
Como trabajo futuro, se seguir realizando revisiones bibliogrficas
peridicas sobre este tema de manera de que en caso de que surgieran nuevos
mtodos intentaramos incluirlos en nuestra ordenacin.
En el captulo 4, se mostr un estudio comparativo entre los algoritmos de
aprendizaje avanzados, que seleccionan de forma dinmica el nmero de unidades
de la capa oculta de la red durante el proceso de aprendizaje. Vimos que existan
dos tipos de procedimientos: constructivos y de podado. Nosotros propusimos el
uso de un algoritmo similar al de Hirose, que combin ambos procedimientos
pero en el cual la condicin de parada del algoritmo, se bas en el uso de crosvalidacin como criterio de convergencia de las redes.
Se estudiaron dos procedimientos constructivos y trece de podado y se
combinaron entre s, cada mtodo constructivo se utiliz con cada uno de los trece
mtodos de podado. El algoritmo propuesto se aplic a once problemas.
Se concluy que como procedimiento constructivo, el de HIROSE
proporcionaba una capacidad de generalizacin superior que el de KHORASANI,

- 287 -

CONCLUSIONES Y TRABAJOS FUTUROS

obteniendo al mismo tiempo un nmero de neuronas adecuado para resolver el


problema. Comparamos tambin, la eficiencia del mtodo de HIROSE en relacin
con los procedimientos clsicos de prueba y error, concluyendo igualmente que la
capacidad de generalizacin es superior para HIROSE.
Utilizamos pues, como procedimiento constructivo, el de HIROSE y
medimos la capacidad de generalizacin para los diferentes mtodos de podado.
Se observ que el resultado obtenido despus de la fase de podado era similar al
obtenido en el proceso constructivo, con lo cual la reduccin de neuronas no
repercute en la mejora de la capacidad de generalizacin, aunque s simplifica la
estructura de la red.
Comparando los resultados que ofrecieron los diferentes mtodos de podado
concluimos que el mtodo 9 (de Kurita y otros), en combinacin con el mtodo
constructivo de Hirose ofrece mejores resultados, por lo que recomendamos su
uso.
Pensamos, debido a su sencillez y efectividad, que podremos incluir en
nuestros trabajos futuros este tipo de metodologa para escoger la arquitectura de
la capa oculta de las redes que tengamos que utilizar.
En el quinto captulo se estudio de qu manera influa en la capacidad de
generalizacin de la red el nmero de capas ocultas seleccionado para la
arquitectura a usar.
Se utilizaron 16 problemas para medir la capacidad que ofrecan las
arquitecturas de una y dos capas ocultas. Se realiz una seleccin previa de las
arquitecturas mnimas de cada tipo para cada problema.
De nuestros resultados podemos concluir que la capacidad de generalizacin
de una red con una capa oculta, es en general mejor que en una red con dos capas
ocultas. Adems hemos observado que para redes con ms de una capa oculta la
convergencia, en algunos problemas, es bastante mala.
Finalmente, en el sexto captulo, se abord el problema de inicializacin de
los pesos de la red previa a su entrenamiento. Esta inicializacin influye sobre
aspectos como capacidad de generalizacin, velocidad de convergencia y xito en
la convergencia.
Mediante un estudio comparativo entre los diferentes mtodos que se
encontraron en la bibliografa, concluimos que la utilizacin de la funcin de
transferencia tangente hiperblica da mejores resultados que el uso de la funcin
sigmoide.

- 288 -

CONCLUSIONES Y TRABAJOS FUTUROS

De los 13 mtodos estudiados, los denominados como mtodos 2, 4 y 5


ofrecen mejores resultados que el mtodo clsico de inicializacin (mtodo 1).
Para el resto de mtodos se encontr una alta variabilidad de los resultados.
Los mtodos en los que haba que escoger algn parmetro resultaron en general
poco eficientes.
En algunos problemas hubo mtodos que presentaron un bajo porcentaje de
xito en las convergencias de las redes. En estos casos los mtodos no son muy
adecuados ya que nos interesa que sean aplicables de la manera ms general
posible.
Como conclusin del captulo 6, podemos decir, que el mtodo 5 ofrece
mejores resultados para todos los problemas. Sin embargo, presenta la desventaja
de tener que escoger ciertos parmetros y en alguna de las elecciones su eficiencia
es inferior. Por ello nosotros pensamos que sera ms interesante el uso del
siguiente mtodo en eficiencia, el mtodo 4, ya que ofrece buenos resultados para
casi todos los problemas estudiados y presenta la ventaja de su sencillez.

- 289 -

CONCLUSIONES Y TRABAJOS FUTUROS

- 290 -

Captulo 8

REFERENCIAS BIBLIOGRFICAS

Referencias Bibliogrficas
En este captulo se incluyen las referencias bibliogrficas, de libros,
proceedings y revistas especializadas que han sido consultados asiduamente para
la elaboracin de la presente Tesis Doctoral y que pueden ser de utilidad a
cualquier persona que pretenda realizar un trabajo de investigacin sobre redes
neuronales.
Estn ordenadas alfabticamente por el nombre del primer autor.

[1]
[2]
[3]
[4]
[5]
[6]

Ahmad, S., Tresp, V., Classification with missing and uncertain inputs.
Proceedings of 1993 IEEE International Conference on Neural Networks,
pp. 1949-1954, San Francisco, California, March 1993.
Alefeld, G., Herzberger, J., Introduction to Interval Computations.
Academic Press. New York. 1983.
Andersen, T., Martinez, T., Cross Validation and MLP Architecture
Selection. International Joint Conference on Neural Networks
(IJCNN99). 1999.
Anguita D., Ridella S., Rovetta S., Limiting the Effects of Weight Errors
in Feedforward Networks using Interval Arithmetic. Proceedings of the
International Conference on Neural Networks, vol. 1, pp. 414-417, 1996.
Armitage, W.D., Jien-Chung Lo, Enhancing the robustness of a
Feedforward neural network in the presence of missing data. Proceedings
of IEEE International Conference on Neural Networks, pp. 836-839, 1994.
Ash, T., Dynamic node creation. Connection Science, vol. 1, no. 4, pp.
365-375, 1989.

- 291 -

REFERENCIAS BIBLIOGRFICAS

[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[17]
[18]
[19]
[20]
[21]
[22]
[23]
[24]

Atiya, A., Ji, C., How initial conditions affect generalization performance
in large networks. IEEE Transactions on Neural Networks, vol. 8, no. 2,
pp. 448-451, 1997.
Azimi-Sadjadi, M. R., Sheedvash, S., Trujillo, F. O., Recursive dynamic
node creation in Multilayer Neural Networks. IEEE Transactions on
Neural Networks, vol. 4, no. 2, pp. 242-256, 1993.
Babri H.A., Tong Y., Deep Feedforward Networks: Application to Pattern
Recognition. Proceedings of the 1996 International Conference on Neural
Networks. 1996, vol. 3, pp. 1422-1426.
Banci G., Monini S., Falaschi A., Sairo N., Vocal fold disorder evaluation
by digital speech analysis. Journal of Phonetics, vol. 14, pp. 495-499,
1986.
Bartlett, E. B., A dynamic node architecture scheme for layered neural
networks. Journal of Artificial Neural Networks, vol. 1, no. 2, pp. 229245, 1994.
Bartlett, E. B., Dynamic node architecture learning: An information
theoretic approach. Neural Networks, vol. 7, no. 1, pp. 129-140, 1994.
Bartlett, E. B., Self determination of input variable inportance using neural
networks. Neural, Parallel & Scientific Computations, vol. 2, pp. 103-114.
1994.
Battiti, R., Using mutual information for selecting features in supervised
neural net learning. IEEE Transactions on Neural Networks, vol. 5, no. 4,
pp. 537-550, 1994.
Belue, L.M., Bauer, K.W., Determining input features for multilayer
perceptrons. Neurocomputing, vol. 7, no. 2, pp. 111-121, 1995.
Bishop, C., Exact calculation of the hessian matrix for the multilayer
perceptron. Neural Computation, vol. 4, pp. 494-501, 1992.
Bos, S., Chug, E., Using weight-decay to optimize the generalization
ability of a perceptron. Proceedings of IEEE International Conference on
Neural Networks, vol. 1, pp. 241-246, 1996.
Bounds, D. G., Lloyd, P. J., A multilayer perceptron for the diagnosis of
low back pain. Proceedings of the IEEE International Conference on
Neural Networks, vol. 2, pp. 481-489, 1988.
Bowles, A.: Machine learns which features to select. Proceedings of the 5th
Australian Joint Conference on Artificial Intelligence, pp. 127-132, 1992.
Boyanov B., Chollet G., Pathological voice analysis using cepstra,
bispectra and group delay functions. Proceedings of the International
Conference on Spoken Language Processing, pp. 1039-1042, 1992.
Boyanov B., Hadjitodorov S., Baudoin G., Acoustical analysis of
pathological voice. Proceedings of the Slovenian German Workshop on
Speech Analysis and Recognition, 1996.
Boyanov B., Hadjitodorov S., Ivanov T., Analysis of voiced speech by
means of bispectrum. Electronics Letters, vol. 7, no. 24, pp. 2267-2268,
1991.
Boyanov B., Hadjitodorov S., Teston B., Doskov D., Robust hybrid
detector for pathological voice analysis. LARYNX 1997, pp. 55-58, 1997.
Boyanov B., Hadjitodorov S., Teston B., Doskov D., Software system for
pathological voice analysis. LARYNX 1997, pp. 139-142, 1997.

- 292 -

REFERENCIAS BIBLIOGRFICAS

[25] Callant, D.E., Kent, R.D., et al., Self-organizing map for the classification
of normal and disordered female voices. Journal of Speech, Language, and
Hearing Research, vol. 42, no. 2, pp. 355-366, 1999.
[26] Chi, Jabri, "Entropy based feature evaluation and selection technique".
Proceedings of 4th Australian Conference on Neural Networks, (ACNN93),
pp. 193-196, 1993.
[27] Chih-Liang Chen, Nutter, Roy S., Improving the Training Speed of Threelayer Feedforward Neural Nets by Optimal Estimation of the Initial
Weights. International Joint Conference on Neural Networks, vol. 3, part.
1, pp. 2063-2068, 1991.
[28] Cibas, T., Souli, F.F., Gallinari, P., Raudys, S., Variable selection with
neural networks. Neurocomputing, vol. 12, pp. 223-248, 1996.
[29] Cosnard M., Koiran P., Paugam-Moisy H., A Step Toward the Frontier
between One-Hidden-Layer and Two-Hidden Layer Neural Networks.
Proceedings of 1993 International Conference on Neural Networks, vol. 3,
pp. 2292-2295, 1993.
[30] Cybenko, George, Approximation by superposition of sigmoidal
functions. Mathematics of Control Signals, and Systems, vol. 2, pp. 303314. 1989.
[31] Deco, G., Obradovic, D., An information Theoretic Approach to Neural
Computing. Springer-Verlag New York, Inc. 1996.
[32] Denoeux, T., Lengell, R., Initializing Back Propagation Networks With
Prototypes. Neural Networks, vol. 6, pp. 351-363, 1993.
[33] Devena, L., Automatic selection of the most relevant features to recognize
objects. Proceedings of the International Conference on Artificial Neural
Networks, vol. 2, pp. 1113-1116, 1994.
[34] Devroye, L., Gyrfi, L., Lugosi, G., A Probabilistics Theory of Pattern
Recognition. Springer-Verlag New York, Inc. 1996.
[35] Drago, G.P, Ridella S., SCAWI: an algorithm for weight initialization of a
sigmoidal neural network. Proceedings. of the International Conference on
Artificial Neural Networks (ICANN92), vol. 2, pp. 983-986, 1992.
[36] Drago, G.P., Ridella, S., Statistically Controlled Activation Weight
Initialization (SCAWI). IEEE Transactions on Neural Networks, vol. 3,
no. 4, pp. 627-631, 1992.
[37] El-Deredy, W., Branston, N.M., Identification of relevant features in HMR
tumor spectra using neural networks. Proceedings of the 4th International
Conference on Artificial Neural Networks, pp. 454-458, 1995.
[38] Engelbrecht, A.P., Cloete, I., A sensitivity analysis algorithm for pruning
feedforward neural networks. Proceedings of the International Conference
on Neural Networks, vol 2, pp. 1274-1277, 1996.
[39] Engelbrecht, AP., Cloete, I., A sensitivity analysis algorithm for pruning
feedforward neural networks. Proceedings of the International Conference
on Neural Networks, vol. 2, pp. 1274-1277, 1996.
[40] Fahlman, S.E., An experimental study of learning speed in BackPropagation networks. CMU Technical Report, CMU-CS-162, Sept. 1988.
[41] Fernndez, M., Hernndez, C., "A comparison among weight inicialization
methods for Multilayer Feedforward networks". Proceedings of the 2000

- 293 -

REFERENCIAS BIBLIOGRFICAS

[42]
[43]
[44]
[45]
[46]
[47]

[48]
[49]
[50]
[51]
[52]
[53]
[54]

[55]

IEEE International Joint Conference on Neural Networks (IJCNN2000),


vol. 4, pp. 543-548, 2000.
Fernndez, M., Hernndez, C., "Input selection by Multilayer Feedforward
trained networks". Proceedings of the 1999 IEEE International Joint
Conference on Neural Networks, (IJCNN99), pp. 1834-1839, 1999.
Fernndez, M., Hernndez, C., "Weight initialization methods for
multilayer feedforward". European Symposium on Artificial Neural
Networks (ESANN'2001). En prensa. Bruges (Belgium).
Fernndez, M., Hernndez, C., A Comparison among feature selection
methods based on trained networks. Proceedings of the 1999 IEEE Neural
Networks for Signal Processing Workshop (NNSP99), pp. 205-214, 1999.
Fernndez, M., Hernndez, C., Analysis of Input Selection Methods for
Multilayer Feedforward. Neural Network World International Scientific
Journal, vol. 10, no. 3, pp. 389-406, Praga, Julio de 2000.
Fernndez, M., Hernndez, C., Generalization capability of one and two
hidden layers. Proceedings of the 1999 IEEE International Joint
Conference on Neural Networks (IJCNN99), pp. 1840-1845, 1999.
Fernndez, M., Hernndez, C., How to select the inputs for a Multilayer
Feedforward Network by using the training set. Proceedings. of the 5th
International Work Conference on Artificial and Natural Neural Networks
(IWANN99), pp. 477-486, 1999.
Fernndez, M., Hernndez, C., Influence of Weight-Decay Training in
Input Selection Methods, European Symposium on Artificial Neural
Networks (ESANN2000), pp.135-140, Brujas (Blgica) 2000.
Fernndez, M., Hernndez, C., Neural networks input selection by using
the training set. Proceeding of the 1999 IEEE International Joint
Conference on Neural Networks, (IJCNN99), pp. 1189-1194, 1999.
Fernndez, M., Hernndez, C., On the Combination of Weight-Decay and
Input Selection Methods. Proceedings of the 2000 International Joint
Conference on Neural Networks, (IJCNN2000), vol. 1, pp. 191-196, 2000.
Fernndez, M., Hernndez, C., One or Two Hidden Layers Perceptrons.
European Symposium on Artificial Neural Networks (ESANN98), pp.
129-133, 1998.
Fernndez, M., Hernndez, C., Optimal use of a trained neural network for
input selection. Proceedings of the 5th International Work Conference on
Artificial and Natural Neural Networks (IWANN99), pp. 506-515, 1999.
Fernndez, M., Hernndez, C.A., A comparison between two interval
arithmetic learning algorithms. Proceedings of the International Joint
Conference on Neural Networks (IJCNN99), pp. 1293-1298, 1999.
Fernndez, M., Hernndez, C.A., An experimental evaluation of Different
Methods for Handling Missing Inputs. Proceeding of the International
Joint Conference on Neural Networks (IJCNN98), vol. 2, pp. 1450-1453,
1998.
Fernndez, M., Hernndez, C.A., How to handle unknown Inputs.
Proceeding of the International Computer Symposium (ICS 98), vol. B, pp.
272-276, 1998.

- 294 -

REFERENCIAS BIBLIOGRFICAS

[56] Fernndez, M., Hernndez, C.A., On the error function of interval


arithmetic Backpropagation. Proceeding of the European Symposium on
Artificial Neural Networks (ESANN 98), pp. 135-139, 1998.
[57] Fine, T.L., Feedforward Neural Network Methodology. Springer-Verlag
New York, Inc. 1999.
[58] Godino-Llorente, J.I., Aguilera-Navarro, S., Hernndez-Espinosa, C.,
Fernndez-Redondo, M., Gmez-Vilda, P., "On the selection of meaningful
speech parameters used by a pathologic/non Pathologic voice register
classifier". 6th European Conference on Speech Communication and
Technology (EuroSpeech'99), vol. 1, pp. 563-566, 1999.
[59] Golden, R. M., Mathematical methods for Neural Network Analysis and
Design. Cambridge, MA: MIT Press. 1996.
[60] Gosh, J., Tumer, K., Structural adaptation and generalization in supervised
feedforward networks. Journal of Artificial Neural Networks, vol. 1, no. 4,
pp. 431-458, 1994.
[61] Greene, R.A., Neural net applications in the cognitive sciences: a case
study. Journal of Microcomputer Applications, vol. 16, pp. 197-201, 1993
[62] Hagiwara, M., A simple and effective method for removal of hidden units
and weights. Neurocomputing, vol. 6, pp. 207-218, 1994.
[63] Hagiwara, M., Backpropagation with selection-reduction of learning time
and elimination of hidden units. Systems and Computers in Japan, vol. 23,
no. 8, pp 46-54, 1992.
[64] Hammitt, A.M., Bartlett, E.B., Determining functional relationships from
trained neural networks. Mathematical Computing Modelling, vol. 22, no.
3, pp. 83-103, 1995.
[65] Harvey, R. M., A neural network as a potential means for aiding nursing
diagnosis, Proceedings of the Fourteenth Annual Symposium on
Computer Applications in Medical Care, pp. 875-879, 1990.
[66] Haung L., Zhang B., A Novel-Network-Related Approach for Regression
Analysis with Interval Model. Proceedings of the International Conference
on Neural Networks, vol. 1, pp. 611-616, 1996.
[67] Haykin, S., Neural Networks. A comprehensive Foundation. IEEE Press.
Macmillan College Publishing Company, Inc. 1994.
[68] Hecht-Nielsen, R., Neurocomputing, Addison Wesley, 1991.
[69] Heinke, D., Hamker, F. H., Comparing Neural Networks: a Benchmark on
Growing Neural Gas, Growing Cell Structures, and Fuzzy ARTMAP.
IEEE Transactions on Neural Networks, vol. 9, no. 6, pp. 1279-1291,
November 1998.
[70] Hernndez C.A., Esp, J., Nakayama, K., Fernndez, M., Interval
Aritmetic Backpropagation. Proceedings of the 1993 International Joint
Conference on Neural Networks (IJCNN93), vol. 1, pp. 375-378, 1993.
[71] Hernndez, C., Esp, J., Nakayama, K., A generalization of
Backpropagation to Interval Aritmetic. Proceedings of the World Congress
on Neural Networks (WCNN93), vol. 4, pp. 131-134, 1993.
[72] Hernndez, C., Esp, J., Nakayama, K., Effect of training data distribution
on Backpropagation Generalization. Proceedings of the 1993 IEEE
International Symposium on Circuits and Systems (ISCAS93), pp. 21482151, 1993.

- 295 -

REFERENCIAS BIBLIOGRFICAS

[73] Hernndez, C., Fernndez, M., On the Effect of Weight-Decay in Input


Selection. Neural Network World International Scientific Journal, vol. 10,
no. 4, pp. 575-588, Praga, Julio de 2000.
[74] Hernndez, C., Fernndez, M., Gomez, P., Neural Network based Input
Selection and Diagnosis of Pathologic Voices. Neural Network World
International Scientific Journal. En prensa.
[75] Hernndez, C., Fernndez, M., Gomez, P., Godino, J.I., Aguilera, S.,
Diagnosis of Vocal and Voice Disorders by the Speech Signal.
Proceedings of 2000 International Joint Conference on Neural Networks,
(IJCNN2000), vol. 4, pp. 253-258, 2000.
[76] Hirose, Y., Yamashita, K., Hijiya, S., Back-propagation algorithm which
varies the number of hidden units. Neural Networks, vol. 4, pp. 6166,1991.
[77] Ho-Sub Yoon, Chang-Seok Bae, Byung-Woo Min, Neural Networks using
Modified Initial Connection Strengths by the Importance of Feature
Elements. International Conference on Systems, Man and Cybernetics,
vol. 1, pp. 458-461, 1995.
[78] Ishibuchi, H., Miyazaki, A., Kwon, K., Tanaka, H., Learning from
incomplete training data with missing values and medical application.
Proceedings of 1993 IEEE International Conference on Neural Networks
(Nagoya), pp. 1871-1874, 1993.
[79] Ishibuchi, H., Miyazaki, A., Tanaka, H., Neural-network-based diagnosis
systems for incomplete data with missing inputs. Proceedindgs of 1994
IEEE International Conference on Neural Networks, pp. 3457-3460, 1994.
[80] Ishibuchi, H., Tanaka, H., An extension of the BP-Algorithm to Interval
Input Vectors -Learning from Numerical Data and Experts Knowledge-.
Proceedings of the 1991 International Joint Conference on Neural
Networks, Singapore, pp. 1588-1593, 1991.
[81] Jacobs R.A., Increased rates of convergence through learning rate
adaptation. Neural Networks, vol. 1, 1988.
[82] Ji, C., Psaltis, D., Network synthesis through data-driven growth and
decay. Neural Networks, vol. 10, no. 6, pp. 1133-1141, 1997.
[83] Kamimura, R., Principal Hidden unit analysis generation of simple
networks by minimum entropy method. Proceedings of 1993 International
Joint Conference on Neural Networks, pp. 317-320, 1993.
[84] Kamimura, R., Principal Hidden unit analysis with minimum entropy
method. Proceedings of the International Conference on Artificial Neural
Networks, pp. 760-763. 1993.
[85] Karayiannis, N.B., Accelerating the Training of Feedforward Neural
Networks Using Generalized Hebbian Rules for Initializing the Internal
Representations. IEEE Transactions on Neural Networks, vol. 7, no. 2, pp.
419-426. March 1996.
[86] Kasuya H., Endo Y., Saliu S., Novel acoustic measurements of jitter and
shimmer characteristic from pathologic voice. Eurospeech 1993, pp. 19731976. Berlin 1993.
[87] Kasuya H., Ogawa Sh., Mashima K., Ebihara S., Normalized noise energy
as an acoustic measure to evaluation pathologic voice. Journal of Acoustic
Society of America, vol. 80, no. 5, pp. 1329-1334, 1986.

- 296 -

REFERENCIAS BIBLIOGRFICAS

[88] Khorasani, K., Weng, W., Structure adaptation in feed-forward neural


networks. Proceedings of IEEE International Conference on Neural
Networks, vol. 3, pp. 1403-1408, 1994.
[89] Kim, Y.K., Ra, J.B., Weight Value Initialization for Improving Training
Speed in the Backpropagation Network. Proceedings of International Joint
Conference on Neural Networks, vol. 3, pp. 2396-2401, 1991.
[90] Kira, K., Rendell, L.A., "The feature selection problem: Traditional
methods and a new algorithm". Proceedings of 10th National Conference on
Artificial Intelligence, pp. 129-134, 1992.
[91] Kurita, T., H-Asoh, Umeyama, S., Akaho, S., Hosomi, A., A structural
learning by adding independent noises to hidden units. Proceedings of
IEEE International Conference on Neural Networks, vol. 1, pp. 275-278,
1994.
[92] Kwok, T. Y., Yeung, D. Y., Constructive algorithms for structure learning
in Feedforward Neural Netwworks for regression problems. IEEE
Transactions on Neural Networks, vol. 8, no. 3, pp. 630-645, 1997.
[93] Kwok, T.Y., Yeung, D.Y., Constructive neural networks: some practical
considerations. Proceedeings. of the 1994 IEEE International Conference
on Neural Networks, vol. 1, pp. 198-203, 1994.
[94] Kwok, T.Y., Yeung, D.Y., Objective functions for training new hidden
units in constructive neural networks. IEEE Transactions on Neural
Networks, vol. 8, no. 5, pp. 1131-1148, 1997.
[95] Lee, H., Mehrotra, K., Mohan, C. Ranka, S., Selection procedures for
redundant inputs in neural networks. Proceedings of the World Congress
on Neural Networks, vol. 1, pp. 300-303, 1993.
[96] Li, G., Alnuweiri, H., Wu, Y., Acceleration of Backpropagations through
Initial Weight Pre-Training with Delta Rule. Proceedings of the IEEE
International Conference on Neural Networks, vol. 1, pp. 580-585, 1993.
[97] Lim, S.F., Ho, S.B., Dynamic creation of hidden units with selective
pruning in Backpropagation. World Congress on Neural Networks, vol. 3,
pp. 492-497, 1994.
[98] Lorenzo, Hernndez, Mndez, "Attribute selection through a measurement
based on information theory".(in Spanish). 7 Conferencia. de la Asociacin
Espaola para la Inteligencia Artificial, (CAEPIA), pp. 469-478, 1997.
[99] Mao, J., Mohiuddin, K., Jain, A.K., Parsimonious network design and
feature selection through node pruning. Proceedings of the 12th IAPR
International Conference on Pattern Recognition, vol. 2, pp. 622-624, 1994.
[100] Maren, A., Harston, C., Pap, R., Handbook of Neural Computing
Applications, Academic Press Inc. 1990.
[101] Maren, C. Harston, R. Pap. Handbook of Neural Computing Applications.
Academic Press Inc. 1990.
[102] Matsunaga, Y., Nakade, Y, Yamakawa, O., Murase, K., A
Backpropagation algorithm with automatic reduction of association units in
Multilayered Neural Network. Proceedings of the International Joint
Conference on Neural Networks, pp. 783-788, 1991.
[103] Merz, C. J., Murphy, P. M., (1998). UCI repository of machine learning
databases.Available at:http://www.ics.uci.edu/~mlearn/MLRepository.html.

- 297 -

REFERENCIAS BIBLIOGRFICAS

[104] Montgomery, D. C.,Runger, G. C., Probabilidad y estadstica aplicadas a


la Ingeniera. McGraw-Hill, 1996.
[105] Mller, B., Reinhardt, J., Strickland, M.T., Neural Networks. An
Introduction. Springer-Verlag Berlin Heidelberg. 1st Ed. 1990-2nd Ed. 1995.
[106] Mulsant, B. H., Servan-Sheriber, E., A connectionist approach to the
diagnosis of dementia, Proceedings of the Twelfth Annual Symposium on
Computer Application in Medical Care, pp. 245-250, 1988.
[107] Nakayama K., Hirano A., Ido I., A multilayer neural network with
nonlinear inputs and trainable activation functions: structure and
simultaneous learning algorithms. Proceedings of the International Joint
Conference on Neural Networks, 1999.
[108] Palubinskas, G., Data-driven Weight Initialization of Back-propagation for
Pattern Recognition. Proceedings of the International Conference on
Artificial Neural Networks (ICANN'94), vol. 2, pp. 851-854, 1994.
[109] Peck, C.C., Dhawan, A.P., Genetic algorithm based input selection for a
neural network function approximator with applications to SSME health
monitoring. Proceedings of the 1993 IEEE International Conference on
Neural Networks, vol. 22, pp. 1115-1122, 1993.
[110] Peck, C.C., Dhawan, A.P., SSME parameter model input selection using
genetic algorithms. IEEE Transactions on Aerospace and Electronic
Systems, vol. 32, no. 1, January 1996.
[111] Prechelt, L., "A quantitative study of experimental evaluations of neural
network learning algorithms: current research practice". Neural Networks,
vol. 9, no. 3, pp. 457-462, 1996.
[112] Priddy, K.L., Rogers, S.K., Ruck D.W., Tarr G.L., Kabrisky, M., Bayesian
selection of important features for feedforward neural networks.
Neurocomputing, vol. 5, no. 2&3, pp. 91-103, 1993.
[113] Reed, R. D., Marks, R. J., Neural Smithing. Supervised Learning in
Feedforward Artificial Neural Networks. Cambridge, MA: MIT Press.
1999.
[114] Reilly, D.L., Cooper, L.N., Elbaum, C., A neural Model for Category
Learning. Biological Cybernetics, vol. 45, pp. 35-41, 1982.
[115] Rezqui A. et al., The effect of the slope of the activation function on the
backpropagation algorithm. Proceedings of the International Joint
Conference on Neural Network, vol. 1, pp. 707-710, January 1990.
[116] Rojas, R., Optimal weight initialization for neural networks, Proceedings
of the International Conference on Artificial Neural Networks (ICANN'94),
vol. 1, pp. 577-580, 1994.
[117] Rossi, F., Gegout, C., Geometrical Initialization, Parametrization and
Control of Multilayer Perceptrons: Application to Function
Approximation, Proceedings of the IEEE International Conference on
Neural Networks (ICNN'94), vol. 1, pp. 546-550, 1994.
[118] Rumelhart, D. E., McClelland, J. L., Parallel Distributed Processing:
Explorations in the Microstructure of Cognition. vol. I, II y III. Cambridge,
MA: MIT Press, 1986, 1987.
[119] Rumelhart, D.E., Hinton, G.E., Willians, R.J., Learning internal
representations by error backpropagation. Parallel Distributed Processing.
Cambridge MA: MIT Press. Chapter 8, pp. 318-362, 1986.

- 298 -

REFERENCIAS BIBLIOGRFICAS

[120] Sano, H., Nada, A., Iwahori, Y., Ishii, N., A method of analyzing
information represented in neural networks. Proceedings of 1993
International Joint Conference on Neural Networks, pp. 2719-2722, 1993.
[121] Saratchandran P., Effect of Hidden Layers on Generalization Properties of
Feedforward Neural Networks. Neural Parallel & Scientific Computations,
vol. 1, no. 2, pp. 227-240, 1993.
[122] Scalia, F., Marconi, L., Ridella, S., Arrigo, P., Mansi, C., Mela, G. S., An
example of back propagation: diagnosis of dyspepsia, Proceedings of the
First IEEE International Conference on Artificial Neural Networks, pp.
332-335. 1989.
[123] Schalkoff, R. J., Pattern Recognition: Statistical, Structural and Neural
Approaches. John Wiley & Sons, Inc. 1992.
[124] Scherf,, "A new approach to feature selection". Proceedings of the 6th
Conference on Artificial Intelligence in Medicine, (AIME97), pp. 181-184,
1997.
[125] Schoentgen J., Jitter in discriminating between normal and dysphonic
speakers. Applied stochastic models and data analysis, vol. 4, pp. 127-135,
1985.
[126] Setiono, R., Hui, L. C. K., Use of Quasi-Newton method in a Feedforward
neural network construction algorithm. IEEE Transactions on Neural
Networks, vol. 6, no. 1, pp. 273-277, 1995.
[127] Setiono, R., Liu, H., "Improving Backpropagation learning with feature
selection". Applied Intelligence: The International Journal of Artificial
Intelligence, Neural Networks, and Complex Problem-Solving
Technologies, vol. 6, no. 2, pp. 129-139, 1996.
[128] Shimodaira H., A Weight Value Initialization Method for Improved
Learning Performance of the Back Propagation Algorithm in Neural
Networks. Proceedings of the 6th International Conference on Tools with
Artificial Intelligence, pp. 672-675, 1994.
[129] Smyth, S.G., "Designing Multilayer Perceptrons from Nearest Neighbor
Systems". IEEE Transactions on Neural Networks, vol. 3, no. 2, pp. 329333. 1992.
[130] Tamura S., Tateishi M., Capabilities of a Four-Layered Feedforward
Neural Network: Four Layers versus Three. IEEE Trans. on Neural
Networks. 1997, vol. 8, no. 2, pp. 251-255.
[131] Tarek Kaylani, Sushil Dasgupta, "Weight initialization of MLP classifiers
using boundary-preserving patterns". 1994.
[132] Tetko, I.V., Tanchuk, V.Y., Luik, A.I., Simple heuristic methods for input
parameter estimation in neural networks. Proceedings of the IEEE
International Conference on Neural Networks, vol. 1, pp. 376-380, 1994.
[133] Tetko, I.V., Villa, A.E.P., Livingstone, D.J., Neural network studies. 2
Variable selection. Journal of Chemical Information and Computer
Sciences, vol. 36, no. 4, pp. 794-803, 1996.
[134] Thawonmas, R., Abe, S., "Feature reduction based on analysis of fuzzy
regions". Proceedings of the 1995 International Conference on Neural
Networks, vol. 4, pp. 2130-2133, 1995.

- 299 -

REFERENCIAS BIBLIOGRFICAS

[135] Thimm, G., Fiesler, E.,High-Order and multilayer perceptron


initialization. IEEE Transactions on Neural Networks, vol. 8, no. 2, pp.
349-359, 1997.
[136] Tresp, V., Neuneier, R., Ahmad, S., Efficient methods for dealing with
missing data in supervised learning. Advances in Neural Information
Processing Systems, pp. 689-696, 1995.
[137] Utans, J., Moody, J., et al., "Input variable selection for neural networks:
Application to predicting the U.S. business cycle". Proceedings of IEEE/
IAFE Computational Intelligence for Financial Engineering, pp. 118-122,
1995.
[138] Villiers J., Bernard E., Backpropagation Neural Nets with One and Two
hidden Layers. IEEE Transactions on Neural Networks, vol. 4, no. 1, pp.
136-141, 1992.
[139] Wallen E.J., Hansen J.H.L., A screening test for speech pathology
assessment using objective quality measures, Proceedings of the
International Conference on Spoken Language Processing, pp. 776-779,
1996.
[140] Watzel, R., Meyer-Bse, A., Meyer-Bse, U., Hilberg, H., Scheich, H.,
Identification of irrelevant features in phoneme recognition with radial
basis classifiers. Proceedings of 1994 International Symposium on
Artificial Neural Networks. pp. 507-512, 1994.
[141] Weng, W., Khorasani, K., An adaptive structure neural networks with
application to EEG automatic seizure detection. Neural Networks, vol. 9,
no. 7, pp. 1223-1240, 1996.
[142] Wessels, L.F.A., Barnard, E., Avoiding False Local Minima by Proper
Initialization of Connections. IEEE Transactions on Neural Networks, vol.
3, no. 6, pp. 899-905, 1992.
[143] Xiao J., Chen Z., Cheng J., Structure Study of Feedforward Neural
Networks for Approximation of Highly Nonlinear Real-valued Functions.
Proceedings of 1996 International Conference on Neural Networks, vol. 1,
pp. 258-263, 1996.
[144] Xiao-Hu Yu, Guo-An Chen, Shi-Xin Cheng, "Dynamic Learning Rate
Optimization of the Backpropagation Algorithm". IEEE Transactions on
Neural Networks, vol. 6. no. 3, pp. 669-677, 1995.
[145] Yamasaki, Masami, The Lower Bound of the Capacity for a Neural
Network with Multiple Hidden Layers. Proceedings of the World
Congress on Neural Networks (WCNN93), vol. 3, pp. 544-547, 1993.
[146] Yasui, S., Convergence suppression and divergence facilitation: Minimum
and joint use of hidden units by multiple outputs. Neural Networks, vol.
10, no. 2, pp. 353-367, 1997.
[147] Yoh-Han Pao, Adaptative Pattern Recognition and Neural Networks.
Addison-Wesley Publishing Company, Inc. 1989.
[148] Younes, B., Fabrice, B., A neural network based variable selector.
Proceedings of the Artificial Neural Network in Engineering, (ANNIE95),
pp. 425-430, 1995.
[149] Yu X., Chen G., Cheng S., Dynamic Learning Rate Optimization of the
Backpropagation Algorithm. IEEE Transactions on Neural Networks, vol.
6, no. 3, pp. 669-677, 1995

- 300 -

REFERENCIAS BIBLIOGRFICAS

[150] Yu, X. H., Can Backpropagation error surface have no local minima.
IEEE Transactions on Neural Networks, vol. 3, pp. 1019-1021, 1992.
[151] Yunik M., Boyanov B., Method for evaluation of the noise-to-harmonic
component ratios in pathological and normal voices. Acustica, vol. 70, pp.
89-91, 1990.
[152] Zhu W., Kikuchi Y., Endo Y., et al., An integrated acoustic evaluation
system of pathologic voice. Proceedings of the International Conference
on Spoken Language Processing, pp. 1983-1986, 1994.

- 301 -

Apndices

APNDICES
I.

Apndices del Captulo 2


I.1 Resultados de los mtodos 1,4 y 5
I.2 Resultados de los mtodos 2 y 3
I.3 Comparacin entre los m todos 2 y 3

II. Apndices del Captulo 3


II.1 Ordenacin de las entrad as para ARNMF y ACE
II.2 Ordenacin de las entrad as para ARNMF&WD
II.3 Eficiencias para los mtod os ARNMF y ACE
II.4 Eficiencias para los mtod os ARNMF&WD
II.5 Comparacin entre mtod os ARNMF y ACE
II.6 Comparacin entre mtod os ARNMF con y sin WD

- 303 -

REFERENCIAS BIBLIOGRFICAS

- 304 -

I. APNDICES DEL CAPTULO 2

I. Apndices del Captulo 2


I.1. Resultados de los mtodos 1, 4 y 5
Tabla 5-23. Porcentaje de correcta clasificacin para los diferentes porcentajes
de entradas desconocidas en el entrenamiento y test para los
mtodos 1, 4 y 5 y todas las bases de datos.
Tabla 5
Test 0%

BASE DE DATOS ABALONE


Test 5% Test 10% Test 20% Test 30% Test 40%

505

36.20.9

37.01.1

38.41.6

38.71.9

37.81.5

5%

433

473

463

453

412

39.71.9

10%

436

454

444

444

414

413

20%

52.20.4

49.550.07

49.80.2

49.60.3

47.70.4

46.30.3

30%

474

433

443

443

423

413

40%

474

443

443

443

423

433

Met.4

0%

---

---

---

---

---

---

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

Tabla 6
Test 0%

BASE DE DATOS BALANCE


Test 5% Test 10% Test 20% Test 30% Test 40%

589

577

556

524

524

523

5%

658

627

606

555

544

534

10%

649

628

607

565

554

553

20%

649

628

606

565

554

544

30%

659

638

607

565

544

543

40%

569

557

546

505

504

484

Met.4

0%

---

---

---

---

---

---

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

- 305 -

I. APNDICES DEL CAPTULO 2

Tabla 7
Test 0%

BASE DE DATOS BANDS


Test 5% Test 10% Test 20% Test 30% Test 40%

68.21.3

58.11.1

57.80.8

55.10.7

54.20.6

50.10.4

5%

72.40.9

61.00.5

61.51.5

58.80.6

60.40.3

56.90.5

10%

72.20.9

61.10.9

58.50.6

58.20.6

58.30.8

56.00.5

20%

74.50.8

48.30.6

49.40.6

50.30.4

48.50.5

49.105

30%

72.01.1

50.91.7

50.91.1

54.10.6

51.60.6

52.90.6

40%

67.80.5

52.30.8

54.90.5

54.20.6

52.60.6

51.00.8

Met.4

0%

---

---

---

---

---

---

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

Tabla 8
Test 0%

BASE DE DATOS BUPA


Test 5% Test 10% Test 20% Test 30% Test 40%

68.31.6

70.01.2

57.81.3

55.00.7

52.50.7

52.60.3

5%

592

57.20.5

54.50.7

53.10.4

52.30.4

52.60.3

10%

58.01.7

54.90.3

51.40.3

52.930.16

51.520.16

51.90.3

20%

53.30.6

55.30.4

51.60.4

52.00.3

54.170.15

51.90.4

30%

540

55.90

51.40

51.60

52.80

53.170.02

40%

53.01.0

54.00.7

50.50.3

50.00.6

53.30.2

51.20.5

Met.4

0%

---

---

---

---

---

---

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

Tabla 9
Test 0%

BASE DE DATOS CREDITO


Test 5% Test 10% Test 20% Test 30% Test 40%

86.60.6

48.11.3

49.21.2

51.51.1

52.11.0

51.90.7

5%

803

47.30.6

49.60.5

52.60.5

53.50.6

52.90.3

10%

86.20.4

49.11.2

501

50.80.5

51.40.5

52.20.4

20%

83.41.1

49.10.8

48.80.6

50.60.6

49.80.3

52.30.5

30%

87.81.1

46.50.9

48.40.9

50.20.4

60.00.3

51.60.3

40%

87.80.2

48.71.5

48.71.0

50.30.8

50.40.7

51.20.6

Met.4

0%

86.60.6

48.11.3

49.21.2

51.521.07

52.071.04

52.00.7

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

- 306 -

I. APNDICES DEL CAPTULO 2

Tabla 10
ENTRENAMIENTO Met.1

Test 0%

BASE DE DATOS DISPLAY1


Test 5% Test 10% Test 20% Test 30% Test 40%

0%

71.91.3

10.130.11

9.390.10

9.720.13

9.760.13

9.40.2

5%

674

10.070.05

9.50.3

9.510.12

9.70.3

9.10.2

10% 73.200.05

9.980.02

9.100.05

9.460.13

9.520.06

8.870.15

20%

10.150.07

9.40.2

9.860.11

10.00.2

9.350.09

10.050.01

9.170.02

9.720.02

9.750.09

9.170.05

712

30% 73.650.08
40%

73.350

10.10

9.20

9.70

9.550

9.650

Met.4

0%

71.91.3

10.130.11

9.390.10

9.720.13

9.760.13

9.40.2

Met.5

0%

71.91.3

70.61.3

66.61.3

59.11.1

52.81.1

45.11.1

Tabla 11
ENTRENAMIENTO Met.1

Test 0%

BASE DE DATOS DISPLAY2


Test 5% Test 10% Test 20% Test 30% Test 40%

0%

70.90.8

8.620.02

9.070.05

7.630.05

9.970.12

8.470.09

5%

71.60.2

8.540.03

8.640.10

7.650.07

9.510.12

8.270.14

10%

70.70.8

8.580.03

8.990.06

7.710.04

9.810.07

8.660.15

20% 72.000.15

8.600.02

9.070.02

7.990.04

9.390.05

8.570.07

30% 71.220.15

8.610.02

8.770.11

8.110.06

9.770.13

7.990.11

40% 72.170.13

8.550

8.420.08

7.930.03

8.930.08

7.820.13

Met.4

0%

70.90.8

8.620.02

9.070.05

7.630.05

9.970.12

8.470.09

Met.5

0%

70.90.8

67.90.8

63.30.7

59.40.7

53.80.8

46.00.4

Tabla 12
Test 0%

BASE DE DATOS GLASS


Test 5% Test 10% Test 20% Test 30% Test 40%

539

456

415

414

394

34.81.3

5%

505

556

505

474

433

382

10%

505

578

527

506

475

403

20%

473

616

565

534

504

432

30%

413

507

476

444

424

392

40%

415

497

455

434

404

382

Met.4

0%

---

---

---

---

---

---

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

- 307 -

I. APNDICES DEL CAPTULO 2

Tabla 13
Test 0%

BASE DE DATOS HEART


Test 5% Test 10% Test 20% Test 30% Test 40%

77.60.8

76.11.0

71.40.6

68.30.5

65.10.5

61.70.5

5%

74.50.4

78.30.4

71.90.3

68.320.18

64.480.17

62.60.2

10%

81.00.8

77.970.15

72.30.2

68.60.2

63.40.2

61.10.3

20%

775

764

714

683

642

632

30%

82.00.2

79.40.4

74.40.3

70.380.14

67.070.13

64.780.08

40%

744

744

694

663

632

622

Met.4

0%

---

---

---

---

---

---

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

Tabla 14
Test 0%

BASE DE DATOS IMAGEN


Test 5% Test 10% Test 20% Test 30% Test 40%

91.00.5

973

612

53.21.0

44.00.8

36.90.5

5%

721

792

71.91.4

61.81.0

52.10.5

44.40.5

10%

81.01.4

781

721

641

52.11.5

45.30.2

20%

704

753

713

61.41.1

563

493

30%

702

723

703

642

583

513

40%

715

532

533

512

483

422

Met.4

0%

91.20

643

612

531

441

36.90.5

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

Tabla 15
Test 0%

BASE DE DATOS MUSHROOM


Test 5% Test 10% Test 20% Test 30% Test 40%

97.60.3

545

544

563

582

55.31.2

5%

95.70.7

492

502

53.41.5

54.81.0

55.00.7

10%

916

484

514

543

562

562

20%

93.60.5

43.61.8

44.01.5

49.21.2

51.11.2

51.21.3

30%

92.51.6

483

493

53.91.9

56.41.7

56.71.8

40%

90.00.6

622

60.81.6

59.60.9

59.70.4

57.70.6

Met.4

0%

---

---

---

---

---

---

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

- 308 -

I. APNDICES DEL CAPTULO 2

Tabla 16
Test 0%

BASE DE DATOS MOK1


Test 5% Test 10% Test 20% Test 30% Test 40%

885

732

70.21.3

661

641

601

5%

733

812

772

731

691

641

10%

725

715

684

653

623

582

20%

641

684

663

643

633

602

30%

59.71.3

571

571

581

581

56.00.5

40%

622

672

652

64.21.3

63.21.1

601

Met.4

0%

710

732

70.21.3

661

641

601

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

Tabla 17
Test 0%

BASE DE DATOS MOK2


Test 5% Test 10% Test 20% Test 30% Test 40%

70.51.5

653

652

672

65.61.2

661

5%

702

62.51.5

62.71.2

64.71.2

651

651

10%

66.51.0

68.40.5

67.30.5

681

661

661

20%

680

622

632

64.51.3

651

65.70.5

30%

66.70.5

65.51.3

661

671

661

66.30.5

40%

60.71.5

51.41.5

541

571

591

61.11.2

Met.4

0%

70.50

653

652

672

65.71.2

661

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

Tabla 18
Test 0%

BASE DE DATOS MOK3


Test 5% Test 10% Test 20% Test 30% Test 40%

892

713

723

723

723

722

5%

81.20.4

84.71.6

81.91.3

75.71.3

72.131.14

671

10%

823

85.61.3

842

782

752

702

20%

882

91.41.1

901

85.91.5

832

782

30%

91.71.5

853

852

832

812

782

40%

806

755

755

745

744

724

Met.4

0%

910

713

723

723

723

722

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

- 309 -

I. APNDICES DEL CAPTULO 2

Tabla 19
Test 0%

BASE DE DATOS MUSK


Test 5% Test 10% Test 20% Test 30% Test 40%

93.10.3

85.010.04

85.570.09

85.610.07

84.810.10

84.00.3

5%

81.31.8

91.240.15

88.710.19

84.00.4

82.30.5

79.40.7

10%

79.91.3

90.780.08

89.050.15

84.00.4

82.70.6

79.21.1

20%

82.30.6

89.110.18

88.480.13

86.090.12

85.410.16

82.60.3

30%

88.00.8

87.20.5

87.70.4

86.470.12

85.760.17

83.110.16

40%

88.21.0

85.00.3

85.60.3

85.160.12

85.420.14

84.810.13

Met.4

0%

---

---

---

---

---

---

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

Tabla 20
Test 0%

BASE DE DATOS PIMA


Test 5% Test 10% Test 20% Test 30% Test 40%

74.90.3

45.11.5

47.91.1

52.21.0

55.50.6

59.70.7

5%

73.11.0

71.11.5

71.21.1

68.81.0

68.71.1

69.50.9

10%

71.21.2

73.51.2

73.81.0

70.60.9

70.90.7

70.40.6

20%

68.01.5

69.51.8

69.51.6

67.61.2

68.50.9

67.31.0

30%

67.70.5

60.81.4

62.71.1

64.50.3

66.50.4

66.00.3

40%

68.71.1

63.23.5

652

65.21.1

66.40.8

67.20.6

Met.4

0%

74.90.3

45.11.5

47.91.2

52.20.9

55.50.6

59.70.6

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

Tabla 21
ENTRENAMIENTO Met.1

Test 0%
0%

94.630.05

BASE DE DATOS THYROIDES


Test 5% Test 10% Test 20% Test 30% Test 40%
93.11.0

88.11.4

83.71.4

81.40.9

81.70.6

5% 93.6440.01

94.630.02

93.730.02

93.610.06

94.290.11

93.470.17

10% 93.530.02

94.610.03

93.660.06

93.770.05

94.530.02 93.8610.01

20% 93.530.03

94.640.04

93.760.06

93.830.06

94.580.02 93.8890.01

30% 93.460.04

94.520.03

93.590.02

93.640.05

94.510.03 93.8390.01

40% 93.470.03

94.540.05

93.630.05

93.660.07

94.490.03

93.830.04

Met.4

0%

---

---

---

---

---

---

Met.5

0%

---

---

---

---

---

---

- 310 -

I. APNDICES DEL CAPTULO 2

Tabla 22
Test 0%

BASE DE DATOS VOTE


Test 5% Test 10% Test 20% Test 30% Test 40%

94.50.2

90.40.4

88.60.3

83.60.2

81.60.3

76.100.19

5%

94.21.1

92.90.6

91.20.3

87.00.5

86.20.4

82.70.9

10%

915

885

885

844

805

804

20%

96.20.7

94.20.6

93.530.16

90.60.2

88.650.14

86.980.17

30%

95.20.3

93.30.5

93.80.2

90.70.2

88.970.10

87.40.3

40%

93.30.8

91.60.4

91.90.3

89.70.4

87.80.3

87.50.4

Met.4

0%

---

---

---

---

---

---

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

Tabla 23
Test 0%

BASE DE DATOS WDBC


Test 5% Test 10% Test 20% Test 30% Test 40%

936

464

503

62.11.1

72.01.7

732

5%

87.91.9

92.80.7

90.30.5

86.20.2

81.10.8

74.51.2

10%

81.10.3

92.950.16

91.780.12

87.850.11

80.170.16

71.780.19

20%

85.40.7

763

83.71.2

89.530.18

83.070.08

76.40.3

30% 88.020.10

47.50.3

57.150.18

78.670.15

84.250.06

80.20.2

40%

93.00.4

36.60.3

41.70.6

57.21.0

75.60.5

80.030.11

Met.4

0%

---

---

---

---

---

---

Met.5

0%

---

---

---

---

---

---

ENTRENAMIENTO Met.1

0%

- 311 -

I. APNDICES DEL CAPTULO 2

I.2. Resultados de los mtodos 2 y 3


Tabla 24. Porcentaje de correcta clasificacin para los diferentes porcentajes
de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Abalone.

Test 40%

5%

59.40.2

57.61.4

57.960.16

55.640.09

53.600.16

50.530.15

10%

56.30.2

55.640.19

55.10.2

54.780.15

52.880.08

51.710.11

55.00.6

55.00.5

54.30.4

54.50.5

51.80.8

51.20.4

50.90

50.1720.006

20%
30%

POR 1

Test 0%

BASE DE DATOS ABALONE METODO2


Test 5%
Test 10% Test 20% Test 30%

50.8360.019 50.6890.011 50.7000.009 51.3220.011


48.590.13

48.440.17

48.930.17

49.50.1

49.540.18

48.920.13

5%

---

57.61.3

57.20.2

54.600.14

53.080.16

51.130.15

10%

---

55.80.2

54.190.16

54.210.12

52.110.12

51.380.15

---

54.90.5

53.20.2

53.30.3

50.60.2

48.70.7

20%
30%

POR 2

40%

---

50.1560.011 49.9940.006 50.8940.006 50.7610.006 50.1670.017

---

47.230.18

47.10.4

46.800.11

47.30.2

46.60.2

5%

---

513

50.70.3

43.00.3

37.60.5

34.40.8

10%

---

53.40.3

49.80.3

45.20.3

40.20.4

36.10.7

---

52.60.7

48.80.4

43.80.9

37.71.3

32.81.6

46.530

44.5670.017

41.70.4

39.30.5

36.20.6

20%
30%

POR 3

40%

---

49.6890.011 48.7610.006 48.6610.006

---

5%

---

447

43.70.3

29.90.4

19.00.4

11.40.3

10%

---

51.020.17

44.90.3

36.10.4

26.20.7

18.70.6

---

51.31.0

46.30.8

39.01.8

312

252

20%
30%

POR 4

40%

---

46.360.04 44.8610.006

46.7890.011 43.5280.006 37.3390.006 29.9610.006 24.0390.006

---

44.170.05

40.390.08

33.90.6

27.50.8

21.50.7

5%

---

264

26.90.2

18.00.2

10.90.3

6.210.19

10%

---

35.040.14

30.790.10

23.240.09

15.520.11

10.600.08

---

252

222

17.21.9

11.81.6

9.31.4

---

9.8890.007

7.70

4.830

2.50

1.60

---

7.080.02

5.230

3.210.02

20%
30%
40%

POR 5

40%

- 312 -

1.5170.017 0.7280.006

I. APNDICES DEL CAPTULO 2

Tabla 25. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Balance.

Test 0%

BASE DE DATOS BALANCE METODO2


Test 5%
Test 10% Test 20% Test 30%

Test 40%

840

82.50

80.600.05

75.570.19

74.00.3

71.10.6

10%

82.530.13

80.930.10

79.980.10

74.920.14

74.30.3

73.60.2

840

82.100.03

81.430.05

75.850.16

75.50.2

72.00.2

84.30.4

82.00.4

80.90.4

73.900.19

74.00.3

71.20.2

40%

81.30.6

79.30.4

77.20.4

73.10.2

72.90.2

70.130.14

5%

---

81.220.08

75.00.2

66.750.17

56.20.3

46.90.2

10%

---

80.480.09

78.400.09

70.630.14

64.380.10

54.10.3

---

82.030.02

81.320.07

75.650.18

75.40.2

71.60.2

---

82.00.3

80.90.4

73.90.2

73.80.3

71.10.3

40%

---

79.30.4

77.30.4

72.930.14

73.40.3

70.30.2

5%

---

80.320.08

74.10.2

63.130.18

51.60.3

40.60.2

10%

---

80.450.10

78.000.09

68.700.18

61.730.10

50.30.2

75.50.2

75.30.2

71.60.2

20%
30%

20%
30%

POR 2

30%

POR 3

20%

POR 1

5%

---

82.0170.017 81.280.07
82.00.4

80.80.4

73.80.2

73.80.3

70.90.3

40%

---

79.10.5

77.00.4

72.50.3

72.40.2

69.10.4

5%

---

75.80

64.80

50.30

37.70

26.10

10%

---

73.970.07

64.280.08

49.530.06

37.230.04

25.970.04

50.40

36.400.06

26.800.04

20%
30%

POR 4

---

---

75.3830.017 65.520.06
75.90.3

66.470.10

51.120.13

38.50.3

28.50.2

40%

---

73.10.4

63.90.5

49.50.3

39.10.3

27.800.13

5%

---

72.30

60.770.13

45.600.13

32.330.04

22.300.06

10%

---

72.5830.017 60.3830.017 45.600.06

32.430.04

22.180.08

20%
30%
40%

POR 5

---

---

72.870.13

61.830.16

46.630.19

33.450.14

23.300.17

---

65.10.2

54.90.4

41.80.3

29.100.17

21.680.19

---

49.80.3

40.80.2

33.10.2

22.70.2

15.30.2

- 313 -

I. APNDICES DEL CAPTULO 2

Tabla 26. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Bands.

5%

77.00.8

73.30.4

73.280.19

67.10.3

62.81.1

522

10%

73.80.5

71.60.4

69.00.3

65.80.5

60.10.7

50.41.0

70.70.3

69.400.18

69.730.15

67.530.10

68.030.06

61.600.14

66.670

64.60

66.470.07

64.000.13

67.350.10

67.330.09

40%

66.670

64.60

66.40

63.80

67.20

67.20

5%

---

73.30.4

73.30.2

67.10.3

62.81.1

522

10%

---

71.60.4

68.90.3

65.80.5

60.10.7

50.41.0

---

69.400.18

69.730.15

67.550.11

68.080.07

61.600.13

---

64.60

66.470.07

64.000.13

67.350.10

67.330.09

40%

---

64.60

66.40

63.80

67.20

67.20

5%

---

73.20.4

73.30.2

67.00.3

62.71.1

522

10%

---

71.60.4

69.00.3

65.80.5

60.10.8

50.31.0

---

69.400.18

69.730.15

67.530.10

68.000.06

61.550.13

---

64.60

66.470.07

64.000.13

67.350.10

67.330.09

40%

---

64.60

66.40

63.80

67.20

67.20

5%

---

57.90.4

41.90.2

22.180.18

11.550.19

2.430.05

10%

---

59.30.6

45.80.3

29.270.12

17.730.19

6.40.2

---

64.20.3

61.70.4

47.950.16

38.00.4

21.10.4

---

64.550.03

66.280.07

62.90.6

64.71.6

623

40%

---

64.60

66.40

63.80

67.20

67.20

5%

---

57.90.4

41.90.2

22.200.19

11.530.19

2.450.05

10%

---

59.30.6

45.80.3

29.270.12

17.730.19

6.40.2

---

64.20.3

61.70.4

47.950.16

37.90.4

21.10.4

---

64.550.03

66.280.07

62.90.6

64.71.6

623

---

64.60

66.40

63.80

67.20

67.20

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS BANDS METODO2


Test 5%
Test 10% Test 20% Test 30%

- 314 -

Test 40%

I. APNDICES DEL CAPTULO 2

Tabla 27. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Bupa.

Test 0%

BASE DE DATOS BUPA METODO2


Test 5%
Test 10% Test 20% Test 30%

5%

580

60.950.08

10%

550

56.50

540

55.90

51.40

540

55.90

40%

540

5%
10%

55.970.06

Test 40%

57.300.06 57.8170.017 56.330.10


53.050.05

51.60

52.80

53.20

51.40

51.60

52.80

53.20

55.90

51.40

51.60

52.80

53.20

---

60.950.08

55.970.06

---

56.50

---

55.90

51.40

---

55.90

40%

---

5%
10%

30%

POR 1

53.00.1

20%

51.8170.017 52.3170.017

57.300.06 57.8170.017 56.330.10


53.050.05

51.60

52.80

53.20

51.40

51.60

52.80

53.20

55.90

51.40

51.60

52.80

53.20

---

60.950.08

55.970.06

---

56.50

---

55.90

51.40

---

55.90

40%

---

5%
10%

30%

POR 2

53.00.1

20%

51.8170.017 52.3170.017

57.300.06 57.8170.017 56.330.10


53.050.05

51.60

52.80

53.20

51.40

51.60

52.80

53.20

55.90

51.40

51.60

52.80

53.20

---

48.670.11

35.820.08

22.250.09

13.820.13

6.730.02

---

53.780.09

43.400.14

35.60.2

26.90.2

21.20.2

---

55.90

51.40

51.60

52.80

53.20

---

55.90

51.40

51.60

52.80

53.20

40%

---

55.90

51.40

51.60

52.80

53.20

5%

---

48.670.11

35.820.08

22.250.09

13.800.12

6.730.02

10%

---

53.780.09

43.430.15

35.70.2

26.90.2

21.30.2

---

55.90

51.40

51.60

52.80

53.20

---

55.90

51.40

51.60

52.80

53.20

---

55.90

51.40

51.60

52.80

53.20

30%

20%
30%
40%

POR 4

20%

POR 5

30%

POR 3

53.00.1

20%

51.8170.017 52.3170.017

- 315 -

I. APNDICES DEL CAPTULO 2

Tabla 28. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Credito.

5%

85.80.2

85.980.11

82.990.02

82.490.11

80.130.09

76.10.2

10%

87.90.4

87.50.2

83.80.2

84.020.05

80.920.04

78.480.06

880

87.950

85.150

84.10

81.650

78.850

880

87.850

85.30

85.250

82.30

79.10

40%

880

87.350

83.30

80.950

77.250

73.250

5%

---

85.970.11

82.980.03

82.500.11

80.090.09

76.10.2

10%

---

87.50.2

83.80.2

84.020.05

80.920.05

78.490.05

---

87.950

85.150

84.10

81.650

78.850

---

87.850

85.30

85.250

82.30

79.10

40%

---

87.350

83.30

80.950

77.250

73.250

5%

---

85.970.11

82.970.02

82.490.11

80.090.09

76.10.2

10%

---

87.50.2

83.80.2

84.020.05

80.900.05

78.460.07

---

87.950

85.150

84.10

81.650

78.850

---

87.850

85.30

85.250

82.30

79.10

40%

---

87.350

83.30

80.950

77.250

73.250

5%

---

80.450.17

71.280.15

58.480.11

45.050.13

32.080.15

10%

---

83.340.19

74.570.10

63.230.10

50.850.06

39.780.07

---

84.450

78.20

69.90

60.150

52.40

---

84.450

78.20

69.90

60.150

52.40

40%

---

84.450

78.20

69.90

60.150

52.40

5%

---

80.450.17

71.280.15

58.470.11

45.020.14

32.070.16

10%

---

83.340.19

74.580.10

63.240.09

50.850.06

39.790.07

---

84.450

78.20

69.90

61.150

52.40

---

84.450

78.20

69.90

60.150

52.40

---

84.450

78.20

69.90

60.150

52.40

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS CREDITO METODO2


Test 5%
Test 10% Test 20% Test 30%

- 316 -

Test 40%

I. APNDICES DEL CAPTULO 2

Tabla 29. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Display1.

5%

73.610.09

71.90.2

67.60.2

60.530.13

54.80.2

45.80.4

10%

73.130.17

71.40.3

67.100.17

60.850.07

54.960.16

46.020.15

693

672

632

56.31.7

50.61.5

42.21.2

70.20.2

66.80.3

63.20.5

55.80.6

49.30.6

41.00.4

40%

662

62.71.6

59.01.7

52.61.4

46.61.3

39.70.9

5%

---

71.740.19

67.60.2

59.810.15

52.410.14

44.90.5

10%

---

71.000.15

67.930.18

60.60.3

53.70.2

47.710.14

---

662

612

53.71.8

46.31.6

40.21.4

---

66.20.2

62.00.6

53.20.9

46.00.8

39.01.2

40%

---

62.11.7

57.61.7

50.91.5

43.21.5

39.21.1

5%

---

69.70.3

63.20.4

52.10.4

42.30.7

32.20.3

10%

---

69.150.19

64.00.2

53.70.2

44.60.2

35.40.3

---

632

562

43.51.3

32.81.1

23.50.8

---

62.70.2

55.30.6

41.50.8

30.30.9

20.90.9

40%

---

58.61.6

51.11.5

39.41.2

28.91.2

22.01.1

5%

---

62.90.2

49.620.17

30.90.4

17.20.3

8.740.16

10%

---

62.90.3

51.080.16

33.030.16

18.770.15

10.130.11

---

58.61.9

46.91.7

30.21.1

17.60.5

9.80.4

---

58.70.3

47.90.5

30.40.8

17.90.6

10.20.4

40%

---

55.31.6

45.31.4

29.80.6

17.60.6

10.60.3

5%

---

51.20.9

40.30.6

23.20.5

12.10.5

6.60.3

10%

---

51.00.5

40.80.4

23.70.4

12.40.3

6.540.13

---

22.31.4

17.41.3

10.30.8

5.10.4

2.90.3

---

10.41.1

8.10.9

4.30.5

2.40.3

1.280.14

---

0 0

0 0

0 0

0 0

0 0

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS DISPLAY1 METODO2


Test 5%
Test 10% Test 20% Test 30%

- 317 -

Test 40%

I. APNDICES DEL CAPTULO 2

Tabla 30. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Display2.

5%

72.130.14

68.780.12

62.840.19

58.910.11

53.600.16

45.60.2

10%

72.350.08

69.230.16

62.940.08

58.380.13

52.850.16

45.660.11

702

662

62.01.7

57.21.3

51.21.2

44.61.1

67.61.5

63.71.4

59.51.2

54.40.7

49.90.6

41.50.7

40%

62.51.7

58.65

54.01.6

49.81.3

44.01.3

35.50.9

5%

---

68.940.07

64.20.4

59.080.11

51.50.3

43.70.2

10%

---

69.60.2

64.760.13

59.850.09

54.10.3

46.330.14

---

66.21.9

62.91.3

55.51.0

47.91.5

41.41.0

---

63.11.6

59.91.2

51.81.0

45.40.9

38.30.8

40%

---

58.01.3

52.81.2

46.30.7

40.30.7

35.30.6

5%

---

66.580.09

59.20.2

51.70.2

42.00.3

32.30.3

10%

---

67.110.14

59.230.09

51.950.12

43.60.3

34.10.2

---

63.51.9

56.61.5

45.31.2

35.61.6

25.91.3

---

59.51.4

52.31.1

40.10.9

31.31.0

20.90.7

40%

---

54.61.5

46.11.3

35.31.1

26.61.1

17.60.9

5%

---

58.660.12

44.660.06

25.320.19

12.680.16

5.350.07

10%

---

60.380.13

48.210.15

30.270.14

17.230.19

9.030.13

---

57.91.8

46.71.3

29.30.9

17.60.5

10.00.4

---

55.41.3

44.30.9

27.80.4

17.10.3

9.530.14

40%

---

51.41.5

41.01.4

27.41.0

17.31.0

9.40.6

5%

---

49.30.4

36.10.4

19.730.14

9.20.3

3.810.13

10%

---

42.560.15

31.90.3

17.630.17

9.220.14

4.520.07

---

24.71.1

19.11.0

11.30.4

6.90.4

3.430.19

---

202

14.91.5

9.20.9

5.30.5

2.60.3

---

0 0

0 0

0 0

0 0

0 0

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS DISPLAY2 METODO2


Test 5%
Test 10% Test 20% Test 30%

- 318 -

Test 40%

I. APNDICES DEL CAPTULO 2

Tabla 31. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Glass.

Test 0%

BASE DE DATOS GLASS METODO2


Test 5%
Test 10% Test 20% Test 30%

Test 40%

81.250

78.670.18

75.80.2

70.20.3

65.20.2

58.41.0

10%

78.60.5

76.60.5

73.30.5

68.70.3

64.20.2

57.30.9

72.10.3

70.50.3

67.90.3

64.10.3

60.90.3

54.10.3

66.10.3

65.70.3

62.570.09

60.850.13

58.050.14

52.350.11

40%

61.70.3

62.10.3

59.40.3

57.00.3

55.00.2

50.80.2

5%

---

78.230.06

73.870.13

64.70.2

58.00.3

49.80.3

10%

---

76.10.4

71.80.5

64.40.3

57.980.19

50.400.11

---

70.680.10

67.80.2

61.20.7

58.50.8

52.81.1

---

66.10.3

62.620.18

57.00.3

56.20.2

54.400.16

40%

---

62.30.2

58.670.19

54.070.14

53.520.12

52.550.10

5%

---

76.880.06

71.40.2

60.270.12

51.30.3

42.20.2

10%

---

75.20.4

69.60.4

60.350.19

52.300.17

43.150.08

---

69.30.4

64.90.9

56.91.8

522

443

---

64.10.3

58.600.14

50.550.17

44.720.15

37.900.11

40%

---

60.40.2

54.700.14

47.430.11

41.90.2

35.870.12

5%

---

74.900.12

66.40.3

51.40.4

40.50.5

30.50.7

10%

---

74.40.4

67.60.4

56.10.2

47.40.4

38.30.2

---

68.50.3

63.10.2

52.80.3

46.20.5

37.40.7

---

63.60.3

57.680.12

47.60.3

41.70.2

33.50.5

40%

---

60.20.3

54.200.16

46.50.4

40.70.3

34.40.5

5%

---

69.500.19

61.20.2

47.50.6

35.60.8

26.90.8

10%

---

69.40.2

63.270.08

51.650.09

42.880.18

34.70.5

---

61.71.1

55.21.3

43.71.4

35.81.6

28.61.3

---

28.70.3

25.530.18

20.70.2

16.120.12

15.030.13

---

15.90.5

14.90.6

13.20.5

10.70.4

10.70.4

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

5%

- 319 -

I. APNDICES DEL CAPTULO 2

Tabla 32. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Heart.

Test 40%

5%

81.50.3

82.20.3

80.110.08

76.230.14

74.120.10

69.730.10

10%

82.40.4

83.20.3

82.430.14

78.10.3

76.080.07

73.90.2

81.20.2

81.920.18

82.530.19

78.430.10

76.480.10

73.30.2

82.20.3

84.080.16

80.40.4

78.350.14

75.70.3

73.70.3

40%

78.160

79.500.06

78.030.10

75.870.11

73.100.11

73.050.16

5%

---

82.10.3

80.030.07

76.270.13

74.180.08

69.730.10

10%

---

83.20.3

82.430.14

78.00.3

76.080.07

73.850.19

---

81.920.18

82.520.19

78.430.10

76.500.11

73.30.2

---

84.100.15

80.40.4

78.350.14

75.70.3

73.70.3

40%

---

79.500.06

78.030.10

75.850.11

73.100.11

73.070.16

5%

---

82.10.3

80.030.07

76.230.14

74.100.12

69.730.10

10%

---

83.20.3

82.430.14

78.00.3

76.050.06

73.80.2

---

81.920.18

82.520.19

78.420.10

76.480.10

73.30.2

---

84.080.16

80.40.4

78.350.14

75.70.3

73.70.3

40%

---

79.500.06

78.030.10

75.850.11

73.100.11

73.050.16

5%

---

75.40.2

64.470.11

46.40.3

24.180.19

16.30.2

10%

---

77.90.3

69.280.16

54.200.10

33.150.04

24.370.18

---

77.120.14

71.080.20

57.330.18

41.10.3

32.520.18

---

79.650.13

70.70.2

59.420.13

46.70.3

37.30.3

40%

---

75.850.17

68.070.03

57.780.10

45.50.3

37.90.5

5%

---

75.40.2

64.480.11

46.40.3

24.180.19

16.30.2

10%

---

77.90.3

69.270.15

54.220.10

33.130.06

24.380.18

---

77.120.14

71.100.19

57.330.18

41.10.3

32.500.17

---

79.650.13

70.70.2

59.420.13

46.70.3

37.30.3

---

75.850.17

68.070.03

57.780.10

45.50.3

37.90.5

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS HEART METODO2


Test 5%
Test 10% Test 20% Test 30%

- 320 -

I. APNDICES DEL CAPTULO 2

Tabla 33. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Imagen.

5%

89.50.4

86.00.3

81.80.3

68.70.3

61.30.5

513

10%

88.60.3

84.80.3

81.30.4

70.40.4

63.60.2

53.60.3

72.01.2

70.70.9

68.10.8

59.50.6

56.50.6

48.60.4

693

683

663

582

54.41.7

46.81.2

40%

592

602

58.51.8

53.71.5

51.81.1

45.81.0

5%

---

85.580.18

78.10.5

66.51.1

53.71.5

413

10%

---

85.80.3

79.90.3

71.10.4

62.40.7

50.40.8

---

71.90.9

68.00.7

62.30.5

56.90.7

49.71.1

---

673

632

54.71.8

46.61.4

40.91.4

40%

---

552

49.21.7

42.01.6

34.51.3

32.01.1

5%

---

81.50.2

71.20.6

52.90.9

40.21.3

26.71.7

10%

---

81.390.18

72.60.2

57.70.3

46.70.4

33.90.6

---

66.90.7

59.70.6

48.00.7

40.41.0

29.61.0

---

633

552

40.41.4

30.60.9

21.70.8

40%

---

51.91.8

43.81.6

32.01.4

22.70.9

15.60.6

5%

---

71.00.3

53.20.3

26.60.2

11.990.13

3.700.15

10%

---

73.90.4

57.70.4

32.70.3

17.630.19

6.790.13

---

63.40.7

51.90.4

33.50.3

21.00.3

10.20.3

---

593

482

29.01.6

18.01.1

8.60.6

40%

---

49.81.7

39.21.5

24.51.4

14.71.0

7.60.9

5%

---

62.60.6

45.70.5

24.40.4

11.730.18

4.130.13

10%

---

59.00.7

45.60.7

26.20.5

14.20.2

5.700.16

---

43.340.12

35.930.17

22.80.3

14.050.19

6.50.2

---

24.10.3

19.50.2

10.780.15

6.850.18

2.870.09

---

10.01.6

6.41.2

3.60.9

2.00.5

0.80.2

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS IMAGEN METODO2


Test 5%
Test 10% Test 20% Test 30%

- 321 -

Test 40%

I. APNDICES DEL CAPTULO 2

Tabla 34. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Mushroom.

Test 0%
5%

20%
30%

99.3890.011 98.010.10

POR 1

10%

BASE DE DATOS MUSHROOM METODO2


Test 5%
Test 10% Test 20% Test 30% Test 40%

40%

97.310.17

93.20.2

87.60.4

81.10.6

98.670.17

97.660.11

97.110.19

94.20.2

90.20.2

84.30.5

96.390.06

95.590.11

94.340.09

93.20.3

90.30.6

86.90.8

89.90.9

89.40.7

88.70.6

85.70.5

84.10.5

82.20.3

84.610.03 84.4890.019 85.020.02 83.2330.017 83.8000.009 82.9610.013


---

98.010.10

97.310.17

93.20.2

87.60.4

81.10.6

10%

---

97.660.11

97.110.19

94.20.2

90.20.2

84.20.5

---

95.590.11

94.340.09

93.20.3

90.30.6

86.90.8

---

89.40.7

88.70.6

85.70.5

84.10.5

82.20.3

20%
30%

POR 2

5%

---

5%

---

98.010.10

97.310.17

93.20.2

87.60.4

81.10.6

10%

---

97.660.11

97.110.19

94.20.2

90.20.2

84.20.5

---

95.590.11

94.340.09

93.20.3

90.30.6

86.90.8

---

89.40.7

88.70.6

85.70.5

84.10.5

82.20.3

20%
30%

POR 3

40%

84.4890.019 85.020.02 82.2330.017 83.8000.009 82.9610.013

---

5%

---

94.10.3

86.70.5

64.00.8

39.90.8

19.40.7

10%

---

93.980.10

88.10.3

68.60.3

46.90.3

26.40.4

---

90.40.3

84.00.6

70.70.6

56.60.5

42.70.6

---

85.60.7

81.70.7

70.680.19

60.780.19

50.81.1

40%

---

80.660.03

5%

---

94.10.3

86.70.5

64.00.8

39.90.8

19.40.7

10%

---

93.980.10

88.10.3

68.60.3

46.90.3

26.40.4

---

90.40.3

84.00.6

70.70.6

56.60.5

42.70.6

---

85.60.7

81.70.7

70.680.19

60.780.19

50.81.1

---

80.660.03

30%

20%
30%
40%

POR 5

20%

POR 4

40%

84.4890.019 85.020.02 82.2330.017 83.8000.009 82.9610.013

75.970.04 66.6670.015 58.060.04

75.970.04 66.6670.015 58.060.04

- 322 -

51.110.10

51.110.10

I. APNDICES DEL CAPTULO 2

Tabla 35. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Mok1.

Test 40%

5%

790

79.0670.017 76.4670.017 74.1670.017 70.3580.008

67.350

10%

69.50.4

69.70.4

68.40.3

66.10.4

65.20.2

61.80.3

81.01.3

80.51.1

77.61.0

73.70.6

69.60.7

65.20.7

790

79.050

76.450

74.150

70.350

67.350

40%

790

79.260.03

76.740.04

74.380.14

70.330.05

67.450.14

5%

---

10%

---

69.70.4

68.30.3

66.10.3

65.30.2

61.90.2

---

80.51.1

77.61.0

73.70.6

69.60.7

65.20.6

---

79.050

76.450

74.150

70.350

67.350

40%

---

79.260.03

76.730.04

74.380.14

70.330.05

67.450.09

5%

---

10%

---

69.70.4

68.30.3

66.00.3

65.30.2

61.80.3

---

80.51.1

77.61.0

73.70.6

69.50.7

65.20.7

---

79.050

76.450

74.150

70.350

67.350

40%

---

79.260.03

76.740.04

74.380.14

70.330.05

67.450.09

5%

---

77.30.5

71.650

64.350

54.70

46.750

10%

---

66.30.3

61.60.2

53.30.2

45.10.2

36.30.3

---

78.00.8

72.60.7

63.60.4

53.80.5

44.51.2

---

76.750

71.650

64.350

54.70

46.750

40%

---

76.750

71.650

64.350

54.70

46.750

5%

---

77.30.5

71.650

64.350

54.70

46.750

10%

---

66.30.3

61.60.2

53.40.2

45.10.3

36.30.3

---

78.00.8

72.60.7

63.60.4

53.80.5

44.51.2

---

76.750

71.650

64.350

54.70

46.750

---

76.750

71.650

64.350

54.70

46.750

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS MOK1 METODO2


Test 5%
Test 10% Test 20% Test 30%

79.0670.017 76.4670.017 74.1670.017 70.3580.008

79.0670.017 76.4670.017 74.1670.017 70.3580.008

- 323 -

67.350

67.350

I. APNDICES DEL CAPTULO 2

Tabla 36. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Mok2.

Test 0%

BASE DE DATOS MOK2 METODO2


Test 5%
Test 10% Test 20% Test 30%

Test 40%

680

69.250

68.450

69.60

67.60

67.40

10%

680

69.250

68.450

69.60

67.60

67.40

680

69.250

68.450

69.60

67.60

67.40

680

69.250

68.450

69.60

67.60

67.40

40%

680

69.250

68.450

69.60

67.60

67.40

5%

---

69.250

68.450

69.60

67.60

67.40

10%

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

40%

---

69.250

68.450

69.60

67.60

67.40

5%

---

69.250

68.450

69.60

67.60

67.40

10%

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

40%

---

69.250

68.450

69.60

67.60

67.40

5%

---

69.250

68.230.10

68.90.3

66.70.4

65.40.9

10%

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

40%

---

69.250

68.450

69.60

67.60

67.40

5%

---

69.250

68.230.10

68.90.3

66.70.4

65.40.9

10%

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

5%

- 324 -

I. APNDICES DEL CAPTULO 2

Tabla 37. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Mok3.

Test 40%

5%

81.70.4

82.50.3

82.20.3

79.30.3

79.400.19

77.720.06

10%

89.70.6

89.10.4

88.00.4

84.90.4

83.80.2

80.630.14

90.70.6

89.70.4

88.60.5

85.20.6

84.00.4

80.60.4

79.80.5

81.20.4

80.50.4

77.90.3

78.20.2

76.80.3

40%

890

87.950

86.750

82.950

81.30

77.750

5%

---

82.50.3

82.20.3

79.30.3

79.420.18

77.730.06

10%

---

89.10.4

88.00.4

84.90.4

83.80.2

80.630.14

---

89.70.4

88.60.5

85.20.6

84.00.5

80.60.4

---

81.20.4

80.50.4

77.90.3

78.20.2

76.80.3

40%

---

87.950

86.750

82.950

81.30

77.750

5%

---

82.50.3

82.20.3

79.30.3

79.400.19

77.730.06

10%

---

89.10.4

88.00.4

84.90.4

83.80.2

80.630.14

---

89.70.4

88.60.5

85.20.6

84.00.5

80.60.4

---

81.20.4

80.50.4

77.90.3

78.20.2

76.80.3

40%

---

87.950

86.750

82.950

81.30

77.750

5%

---

75.90.3

69.70.2

56.580.16

45.000.14

35.480.15

10%

---

83.20.5

76.90.3

64.00.5

52.50.5

43.30.6

---

84.00.5

78.10.4

66.20.4

55.70.6

46.60.7

---

74.70.4

69.240.19

57.150.10

47.00.4

38.80.8

40%

---

82.90

77.650

66.10

560

48.050

5%

---

75.90.3

69.70.2

56.580.16

45.000.14

35.480.15

10%

---

83.20.5

76.90.3

63.90.5

52.50.5

43.30.7

---

84.00.5

78.10.4

66.20.4

55.70.6

46.60.7

---

74.70.4

69.240.19

57.150.10

47.00.4

38.80.8

---

82.90

77.650

66.10

560

48.050

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS MOK3 METODO2


Test 5%
Test 10% Test 20% Test 30%

- 325 -

I. APNDICES DEL CAPTULO 2

Tabla 38. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Musk.

5%

92.560.08

93.440.10

92.060.13

89.20.2

84.91.6

786

10%

90.660.09

90.990.11

90.710.14

89.200.07

87.40.3

83.51.7

87.980.17

70.31.1

20%
30%

POR 1

Test 0%

BASE DE DATOS MUSK METODO2


Test 5%
Test 10% Test 20% Test 30%

85.0000.017 84.9220.011 85.3220.007 86.980.09

Test 40%

83.730

84.130

84.250.04

84.970.14

87.010.13

40%

83.730

83.730

84.130

84.030

83.570

84.340.07

5%

---

93.440.10

92.060.13

89.10.2

84.91.6

786

10%

---

91.000.11

90.720.15

89.200.07

87.40.3

83.51.7

87.990.17

70.41.1

20%
30%

POR 2

83.730

---

84.9220.011 85.3220.007 86.980.09


83.730

84.130

84.250

84.970.14

87.010.13

40%

---

83.730

84.130

84.030

83.570

84.350.07

5%

---

93.440.10

92.060.13

89.10.2

84.91.6

786

10%

---

90.990.11

90.710.14

89.200.07

87.40.3

83.41.7

87.980.17

70.31.1

20%
30%

POR 3

---

---

84.9220.011 85.3220.007 86.980.09


83.730

84.130

84.250

84.970.14

87.010.13

40%

---

83.730

84.130

84.030

83.570

84.340.07

5%

---

86.930.16

72.80.4

34.71.2

8.20.8

0.960.16

10%

---

87.610.08

82.360.07

63.40.3

32.90.9

9.30.6

---

83.960.03 83.9720.006 81.540.05

63.70.3

26.30.6

20%
30%

POR 4

---

83.730

84.130

40%

---

83.730

84.130

84.030

83.40

82.760.03

5%

---

86.940.16

72.80.4

34.741.19

8.20.8

0.960.16

10%

---

87.610.08

82.370.08

63.40.3

32.90.9

9.30.6

---

83.960.03 83.9720.006 81.540.05

63.70.3

26.30.6

20%
30%
40%

POR 5

---

---

83.730

84.130

---

83.730

84.130

- 326 -

83.9670.009 82.2780.019 70.820.15

83.9670.009 82.2780.019 70.820.14


84.030

83.40

82.760.03

I. APNDICES DEL CAPTULO 2

Tabla 39. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Pima.

5%

71.60.6

69.00.4

72.10.3

70.70.4

68.31.0

67.81.1

10%

73.60

71.0830.011

72.80.4

70.70.5

70.40.5

68.90.7

65.800.14

65.570.15

65.850.08

65.830.03

67.060.06

66.680.05

65.20

65.20

65.20

65.40

66.40

65.950

40%

65.20

65.20

65.20

65.40

66.40

65.950

5%

---

69.00.4

72.10.3

70.70.4

68.31.0

67.81.1

10%

---

71.0830.011

72.80.4

70.70.5

70.40.5

68.90.7

---

65.570.15

65.850.08

65.830.03

67.050.06

66.680.05

---

65.20

65.20

65.40

66.40

65.950

40%

---

65.20

65.20

65.40

66.40

65.950

5%

---

69.00.4

72.10.3

70.70.4

68.31.0

67.81.1

10%

---

71.0830.011

72.80.4

70.70.5

70.40.5

68.90.7

---

65.570.15

65.850.08

65.830.03

67.050.06

66.680.05

---

65.20

65.20

65.40

66.40

65.950

40%

---

65.20

65.20

65.40

66.40

65.950

5%

---

61.10.5

55.80.5

40.70.6

347

18.10.9

10%

---

66.70.2

64.40.2

53.30.4

44.20.6

35.10.5

---

64.060.13

62.110.05

56.780.02

49.620.10

39.820.12

---

65.20

65.20

65.40

66.40

65.950

40%

---

65.20

65.20

65.40

66.40

65.950

5%

---

61.10.5

55.80.5

40.70.6

347

18.10.9

10%

---

66.70.2

64.40.2

53.30.4

44.20.6

35.10.5

---

64.060.13

62.120.05

56.780.02

49.640.10

39.830.11

---

65.20

65.20

65.40

66.40

65.950

---

65.20

65.20

65.40

66.40

65.950

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS PIMA METODO2


Test 5%
Test 10% Test 20% Test 30%

- 327 -

Test 40%

I. APNDICES DEL CAPTULO 2

Tabla 40. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Thyroides.

Test 0%

BASE DE DATOS THYROIDES METODO2


Test 5%
Test 10% Test 20% Test 30%

Test 40%

93.870

94.5280.006

93.60

93.2720.006

94.370

93.570

10%

93.270

940

93.30

93.030

94.230

93.470

93.270

940

93.30

93.030

94.230

93.470

93.270

940

93.30

93.030

94.230

93.470

40%

93.270

940

93.30

93.030

94.230

93.470

5%

---

94.470

93.60

93.2060.006

94.370

93.530

10%

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

40%

---

940

93.30

93.030

94.230

93.470

5%

---

94.470

93.60

93.2060.006

94.370

93.530

10%

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

40%

---

940

93.30

93.030

94.230

93.470

5%

---

94.10

92.40

87.140.04

79.960.04

66.280.10

10%

---

940

93.230

92.7780.011 92.510.04

88.340.08

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

40%

---

940

93.30

93.030

94.230

93.470

5%

---

93.7720

75.640.04

61.010.04

10%

---

940

93.0720.006 91.7170.017 90.040.05

83.070.07

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

5%

91.4610.006 84.480.02

- 328 -

I. APNDICES DEL CAPTULO 2

Tabla 41. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Vote.

5%

95.30.2

95.620.03

94.800.05

92.300.16

89.770.08

84.80.3

10%

94.70.2

94.970.11

93.800.10

92.730.05

91.430.15

87.90.2

95.30.3

94.730.15

93.880.05

91.650.03

90.880.06

89.570.13

91.830.17

92.320.10

92.070.03

90.420.13

91.050.12

88.620.14

40%

930

920

5%

---

95.620.03

94.820.06

92.320.16

89.770.08

84.80.3

10%

---

94.970.11

93.800.10

92.700.05

91.400.15

87.90.2

---

94.730.15

93.880.05

91.630.02

90.870.05

89.550.13

---

92.320.10

92.070.03

90.430.12

91.050.12

88.630.13

40%

---

920

5%

---

95.620.03

94.800.05

92.300.16

89.770.08

84.80.3

10%

---

94.970.11

93.800.10

92.700.05

91.400.15

87.90.2

---

94.730.15

93.880.05

91.630.02

90.870.05

89.550.13

---

92.320.10

92.070.03

90.420.13

91.050.12

88.620.14

40%

---

920

5%

---

93.270.04

87.050.12

74.820.19

56.70.3

39.40.3

10%

---

92.700.13

87.750.10

77.850.07

64.730.15

47.480.14

---

93.90.2

88.770.16

79.830.09

70.270.10

54.630.13

---

89.900.07

86.230.06

78.10.3

70.180.18

57.370.19

40%

---

88.90

85.650.10

75.00.2

64.270.09

53.950.12

5%

---

93.280.03

87.070.12

74.850.18

56.70.3

39.40.3

10%

---

92.700.13

87.750.10

77.850.06

64.730.15

47.500.15

---

93.90.2

88.780.16

79.850.09

70.250.09

54.620.13

---

89.880.08

86.230.06

78.10.3

70.180.18

57.370.19

---

88.90

85.650.10

75.00.2

64.270.09

53.950.12

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS VOTE METODO2


Test 5%
Test 10% Test 20% Test 30%

Test 40%

92.2830.017 91.670.02 90.2170.017 91.020.07

92.2830.017 91.670.02 90.2170.017 91.020.07

92.2830.017 91.670.02 90.2170.017 91.020.07

- 329 -

I. APNDICES DEL CAPTULO 2

Tabla 42. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 2.
Base de datos Wdbc.

Test 0%

BASE DE DATOS WDBC METODO2


Test 5%
Test 10% Test 20% Test 30%

5%

99.3750

10%

96.8750

97.480.05

93.230.19

95.200.07

91.020.08

96.770.06

96.570.12

94.430.12

90.40.2

90.850.13

90.080.16

89.00.2

86.70.4

82.10.4

89.00.3

87.70.3

86.90.3

87.350.16

85.20.2

80.20.2

40%

84.31.0

83.20.6

80.70.9

81.00.9

79.20.7

75.60.6

5%

---

97.700.05

95.200.07

91.020.08

10%

---

97.450.03

96.780.07

96.570.12

94.450.13

90.50.2

---

90.870.12

90.100.17

89.10.2

86.60.4

82.20.4

---

87.70.3

86.90.3

87.320.16

85.180.17

80.150.19

40%

---

83.20.6

80.70.9

81.00.9

79.20.7

75.60.6

5%

---

97.700.05

95.200.07

91.020.08

10%

---

97.450.03

96.770.06

96.570.12

94.430.12

90.40.2

---

90.850.13

90.080.16

89.00.2

86.60.4

82.10.4

---

87.70.3

86.90.3

87.320.16

85.150.18

80.10.2

40%

---

83.20.6

80.70.9

81.00.9

79.20.7

75.60.6

5%

---

87.300.09

72.980.13

43.080.07

22.450.02

11.600.04

10%

---

88.870.04

77.150.09

49.670.14

27.370.14

15.380.17

---

85.150.12

79.70.4

70.20.6

57.50.9

47.91.3

---

83.90.3

77.90.3

65.80.9

53.21.1

40.11.2

40%

---

78.40.8

73.01.0

65.71.2

57.41.1

49.81.0

5%

---

87.300.09

72.980.13

43.070.06

22.430.02

11.600.04

10%

---

88.870.04

77.150.09

49.670.14

27.330.14

15.330.16

---

85.170.11

79.70.4

70.10.6

57.50.9

47.91.3

---

83.80.3

77.90.3

65.70.9

53.31.1

40.11.2

---

78.40.8

73.01.0

65.71.2

57.41.1

49.81.0

20%
30%

20%
30%

20%
30%
40%

POR 2
POR 3

30%

POR 4

20%

POR 5

30%

POR 1

97.700.05

20%

98.2830.017 98.380.03

Test 40%

98.2830.017 98.380.03

98.2830.017 98.380.03

- 330 -

I. APNDICES DEL CAPTULO 2

Tabla 43. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Abalone.

5%

55.00.3

54.90.3

53.740.07

53.90.3

51.30.4

49.70.2

10%

404

404

404

404

393

383

34.550

34.530

34.370

34.90

34.40

32.970

34.550

34.530

34.370

34.90

34.40

32.970

40%

32.950

33.170

33.070

32.90

340

33.430

5%

---

55.40.2

53.530.19

53.400.06

50.50.2

48.50.5

10%

---

403

403

403

383

373

---

34.530

34.370

34.90

34.40

32.970

---

34.530

34.370

34.90

34.40

32.970

40%

---

33.170

33.070

32.90

340

33.430

5%

---

53.20.2

49.340.10

45.030.05

39.10.4

33.80.9

10%

---

403

403

393

372

352

---

34.530

34.370

34.90

34.40

32.970

---

34.530

34.370

34.90

34.40

32.970

40%

---

33.170

33.070

32.90

340

33.430

5%

---

52.10.4

47.80.2

42.20.8

34.70.9

28.70.8

10%

---

393

383

36.91.3

33.90.9

31.21.6

---

34.530

34.370

34.90

34.40

32.970

---

34.530

34.370

34.90

34.40

32.970

40%

---

33.170

33.070

32.90

340

33.430

5%

---

292

26.71.9

20.71.5

15.71.2

12.00.7

10%

---

4 3

4 2

2.61.8

1.61.2

1.20.9

---

0 0

0 0

0 0

0 0

0 0

---

0 0

0 0

0 0

0 0

0 0

---

0 0

0 0

0 0

0 0

0 0

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS ABALONE METODO3


Test 5%
Test 10% Test 20% Test 30%

- 331 -

Test 40%

I. APNDICES DEL CAPTULO 2

Tabla 44. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Balance.

Test 0%

BASE DE DATOS BALANCE METODO3


Test 5%
Test 10% Test 20% Test 30%

5%

840

82.50

10%

82.930.17

81.270.12

79.950.16

74.80.5

72.60.3

440

40%

72.520.13

74.90.3

73.60.3

71.10.5

71.60.4

66.170.16

66.20.4

62.90.5

450

44.50

45.20

45.40

47.40

440

450

44.50

45.20

45.40

47.40

5%

---

82.10

79.60

71.40

64.10

52.70

10%

---

81.280.12

80.10.2

74.90.2

73.80.2

71.60.4

---

72.60.4

71.30.4

65.90.2

64.80.3

61.80.3

---

450

44.50

45.20

45.40

47.40

40%

---

450

44.50

45.20

45.4

47.40

5%

---

82.10

79.30

69.40

61.20

49.10

10%

---

81.270.12

79.770.18

74.20.2

72.40.2

69.00.4

---

72.10.4

70.80.4

65.00.2

64.20.3

60.90.3

---

450

44.50

45.20

45.40

47.40

40%

---

450

44.50

45.20

45.4

47.40

5%

---

75.80

64.80

50.30

37.70

26.10

10%

---

74.170.08

64.600.11

49.470.08

37.180.05

25.500.08

---

69.00.3

61.20.3

49.450.11

38.330.09

29.950.08

---

450

44.50

45.20

45.40

47.40

40%

---

450

44.50

45.20

45.4

47.40

5%

---

73.130.06

62.020.07

47.250.05

34.520.10

23.920.03

10%

---

72.570.02

61.220.08

46.620.05

33.270.08

22.950.15

---

40.50.9

33.80.8

26.60.8

18.40.4

14.70.5

---

450

44.50

45.20

45.40

47.40

---

0 0

0 0

0 0

0 0

0 0

20%
30%

20%
30%

20%
30%
40%

POR 2
POR 3

30%

POR 4

20%

POR 5

30%

POR 1

74.470.15

20%

80.6830.017 75.780.12

Test 40%

- 332 -

I. APNDICES DEL CAPTULO 2

Tabla 45. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Bands.

5%

72.80.2

69.80.2

70.00.2

68.30.2

70.10.3

69.10.3

10%

66.670

64.60

66.40

63.80

67.20

67.20

66.670

64.60

66.40

63.80

67.20

67.20

66.670

64.60

66.40

63.80

67.20

67.20

40%

66.670

64.60

66.40

63.80

67.20

67.20

5%

---

69.80.2

70.00.2

68.30.2

70.20.3

69.10.3

10%

---

64.60

66.40

63.80

67.20

67.20

---

64.60

66.40

63.80

67.20

67.20

---

64.60

66.40

63.80

67.20

67.20

40%

---

64.60

66.40

63.80

67.20

67.20

5%

---

69.80.2

70.00.2

68.30.2

70.10.3

69.10.3

10%

---

64.60

66.40

63.80

67.20

67.20

---

64.60

66.40

63.80

67.20

67.20

---

64.60

66.40

63.80

67.20

67.20

40%

---

64.60

66.40

63.80

67.20

67.20

5%

---

63.30.3

57.10.4

44.10.8

30.91.1

17.71.3

10%

---

64.60

66.40

63.80

67.20

67.20

---

64.60

66.40

63.80

67.20

67.20

---

64.60

66.40

63.80

67.20

67.20

40%

---

64.60

66.40

63.80

67.20

67.20

5%

---

63.30.3

57.10.3

44.10.8

30.91.1

17.71.3

10%

---

64.60

66.40

63.80

67.20

67.20

---

64.60

66.40

63.80

67.20

67.20

---

64.60

66.40

63.80

67.20

67.20

---

64.60

66.40

63.80

67.20

67.20

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS BANDS METODO3


Test 5%
Test 10% Test 20% Test 30%

- 333 -

Test 40%

I. APNDICES DEL CAPTULO 2

Tabla 46. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Bupa.

Test 0%

BASE DE DATOS BUPA METODO3


Test 5%
Test 10% Test 20% Test 30%

Test 40%

540

55.90

51.40

51.60

52.80

53.20

10%

540

55.90

51.40

51.60

52.80

53.20

540

55.90

51.40

51.60

52.80

53.20

540

55.90

51.40

51.60

52.80

53.20

40%

540

55.90

51.40

51.60

52.80

53.20

5%

---

55.90

51.40

51.60

52.80

53.20

10%

---

55.90

51.40

51.60

52.80

53.20

---

55.90

51.40

51.60

52.80

53.20

---

55.90

51.40

51.60

52.80

53.20

40%

---

55.90

51.40

51.60

52.80

53.20

5%

---

55.90

51.40

51.60

52.80

53.20

10%

---

55.90

51.40

51.60

52.80

53.20

---

55.90

51.40

51.60

52.80

53.20

---

55.90

51.40

51.60

52.80

53.20

40%

---

55.90

51.40

51.60

52.80

53.20

5%

---

55.90

51.40

51.60

52.80

53.20

10%

---

55.90

51.40

51.60

52.80

53.20

---

55.90

51.40

51.60

52.80

53.20

---

55.90

51.40

51.60

52.80

53.20

40%

---

55.90

51.40

51.60

52.80

53.20

5%

---

55.90

51.40

51.60

52.80

53.20

10%

---

55.90

51.40

51.60

52.80

53.20

---

55.90

51.40

51.60

52.80

53.20

---

55.90

51.40

51.60

52.80

53.20

---

55.90

51.40

51.60

52.80

53.20

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

5%

- 334 -

I. APNDICES DEL CAPTULO 2

Tabla 47. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Credito.

5%

84.830.17

85.240.11

82.680.11

83.830.19

80.90.3

77.70.8

10%

88.20.4

86.80.2

83.70.2

80.830.13

76.720.05

71.920.09

880

87.950

85.150

84.10

81.650

78.850

880

87.350

83.30

80.950

77.250

73.250

40%

550

55.550

54.90

53.90

54.050

52.20

5%

---

85.230.11

82.690.10

83.840.19

80.90.3

77.70.8

10%

---

86.80.2

83.740.19

80.830.13

76.720.05

71.920.09

---

87.950

85.150

84.10

81.650

60.150

---

87.350

83.30

80.950

77.250

73.250

40%

---

55.550

54.90

53.90

54.050

52.20

5%

---

84.50.7

82.680.11

83.830.19

80.80.3

77.70.8

10%

---

86.80.2

83.740.19

80.830.13

76.720.05

71.920.09

---

87.950

85.150

84.10

81.650

60.150

---

87.350

83.30

80.950

77.250

73.250

40%

---

55.550

54.90

53.90

54.050

52.20

5%

---

80.470.09

71.950.07

61.20.4

48.50.8

37.51.4

10%

---

82.70.2

75.820.19

63.960.10

52.330.16

41.360.10

---

84.450

78.20

69.70

60.150

52.40

---

84.450

78.20

69.90

60.150

52.40

40%

---

55.550

54.90

53.90

54.050

52.20

5%

---

80.70.4

71.960.08

61.20.4

48.50.8

37.51.4

10%

---

82.70.2

75.820.19

63.960.10

52.330.16

41.360.10

---

84.450

78.20

69.90

60.150

52.40

---

84.450

78.20

69.90

60.150

52.40

---

55.550

54.90

53.90

54.050

52.20

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS CREDITO METODO3


Test 5%
Test 10% Test 20% Test 30%

- 335 -

Test 40%

I. APNDICES DEL CAPTULO 2

Tabla 48. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Display1.

5%

73.400.15

71.40.5

67.00.3

59.750.16

53.80.4

45.10.3

10%

6010

579

559

498

437

375

9.10

9.30

8.80

8.70

9.550

9.30

110

12.050

110

10.750

11.250

11.850

40%

9.10

9.350

8.80

8.70

9.550

9.30

5%

---

71.00.3

66.70.3

58.90.5

51.40.6

44.20.9

10%

---

579

549

487

406

345

---

9.350

8.80

8.70

9.550

9.30

---

12.050

110

10.750

11.250

11.850

40%

---

9.350

8.80

8.70

9.550

9.30

5%

---

68.60.5

61.90.4

50.70.4

40.70.7

31.20.9

10%

---

559

498

396

294

222

---

9.350

8.80

8.70

9.550

9.30

---

12.050

110

10.750

11.250

11.850

40%

---

9.350

8.80

8.70

9.550

9.30

5%

---

63.10.5

50.50.4

32.60.4

18.80.4

9.80.2

10%

---

518

426

294

17.81.4

11.550.19

---

9.350

8.80

8.70

9.550

9.30

---

12.050

110

10.750

11.250

11.850

40%

---

9.350

8.80

8.70

9.550

9.30

5%

---

41.90.6

33.50.7

20.10.5

10.20.4

6.00.3

10%

---

194

153

9 2

4.681.04

2.80.7

---

0 0

0 0

0 0

0 0

0 0

---

0 0

0 0

0 0

0 0

0 0

---

0 0

0 0

0 0

0 0

0 0

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS DISPLAY1 METODO3


Test 5%
Test 10% Test 20% Test 30%

- 336 -

Test 40%

I. APNDICES DEL CAPTULO 2

Tabla 49. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Display2.

Test 40%

5%

72.650.07

69.580.13

63.290.09

59.580.09

53.30.2

45.420.16

10%

3011

2810

279

259

237

206

10.20

100

10.650

11.150

10.20

10.70

9.80

10.050

9.10

10.650

10.30

8.650

40%

9.80

10.050

9.10

10.650

10.30

8.650

5%

---

69.630.10

64.870.04

59.950.17

51.60.2

44.30.3

10%

---

2810

289

269

247

216

---

100

10.650

11.150

10.20

10.70

---

10.050

9.10

10.650

10.30

8.650

40%

---

10.050

9.10

10.650

10.30

8.650

5%

---

67.180.10

59.250.07

50.930.16

40.70.3

31.40.2

10%

---

2710

258

217

185

153

---

100

10.650

11.150

10.20

10.70

---

10.050

9.10

10.650

10.30

8.650

40%

---

10.050

9.10

10.650

10.30

8.650

5%

---

60.550.14

48.030.14

30.630.08

17.350.11

8.820.05

10%

---

259

227

164

12.31.9

9.50.9

---

100

10.650

11.150

10.20

10.70

---

10.050

9.10

10.650

10.30

8.650

40%

---

10.050

9.10

10.650

10.30

8.650

5%

---

46.370.18

34.40.2

19.060.12

10.350.12

4.780.07

10%

---

7 5

6 4

3 2

1.91.4

1.10.9

---

0 0

0 0

0 0

0 0

0 0

---

0 0

0 0

0 0

0 0

0 0

---

0 0

0 0

0 0

0 0

0 0

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS DISPLAY2 METODO3


Test 5%
Test 10% Test 20% Test 30%

- 337 -

I. APNDICES DEL CAPTULO 2

Tabla 50. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Glass.

Test 40%

5%

79.20.7

77.00.5

73.90.5

69.60.4

64.830.17

56.980.16

10%

71.60.7

70.20.7

67.50.6

64.00.5

61.10.4

54.20.4

525

515

505

484

474

443

28.1250

28.20

28.80

29.70

290

30.70

40%

28.1250

28.20

28.80

29.70

290

30.70

5%

---

76.50.5

71.80.5

63.50.2

57.40.3

49.30.5

10%

---

70.40.5

67.40.4

61.00.2

59.21.0

54.51.5

---

522

515

474

474

484

---

28.20

28.80

29.70

290

30.70

40%

---

28.20

28.80

29.70

290

30.70

5%

---

75.70.4

69.90.4

60.270.10

52.750.08

43.330.13

10%

---

68.80.8

63.90.7

55.30.9

49.71.2

42.01.4

---

505

484

413

382

34.31.0

---

28.20

28.80

29.70

290

30.70

40%

---

28.20

28.80

29.70

290

30.70

5%

---

74.80.4

68.70.5

56.60.4

47.10.5

38.10.4

10%

---

68.50.8

63.20.7

54.00.8

47.40.7

39.20.6

---

505

484

413

382

34.20.9

---

28.20

28.80

29.70

290

30.70

40%

---

28.20

28.80

29.70

290

30.70

5%

---

69.50.3

63.60.4

51.80.8

42.71.3

35.01.6

10%

---

545

484

394

323

272

---

184

184

163

133

143

---

0 0

0 0

0 0

0 0

0 0

---

0 0

0 0

0 0

0 0

0 0

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS GLASS METODO3


Test 5%
Test 10% Test 20% Test 30%

- 338 -

I. APNDICES DEL CAPTULO 2

Tabla 51. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Heart.

Test 0%

BASE DE DATOS HEART METODO3


Test 5%
Test 10% Test 20% Test 30%

Test 40%

83.90

83.970.03

82.480.06

78.480.09

75.570.11

70.880.14

10%

82.00.5

82.70.3

81.90.3

78.40.2

76.800.16

75.330.13

77.40.2

76.620.16

78.980.17

75.520.10

71.530.19

68.580.14

54.0230

54.40

52.80

54.20

53.30

52.40

40%

45.980

45.60

47.20

45.80

46.70

47.60

5%

---

83.970.03

82.500.07

78.470.10

75.530.12

70.920.15

10%

---

82.70.3

81.90.3

78.40.2

76.780.17

75.320.13

---

76.620.16

76.980.17

75.520.10

71.530.19

68.570.13

---

54.40

52.80

54.20

53.30

52.40

40%

---

45.60

47.20

45.80

46.70

47.60

5%

---

83.970.03

82.480.06

78.470.10

75.530.12

70.880.14

10%

---

82.70.3

81.90.3

78.40.2

76.780.17

75.320.13

---

76.620.16

76.980.17

75.520.10

71.530.19

68.570.13

---

54.40

52.80

54.20

53.30

52.40

40%

---

45.60

47.20

45.80

46.70

47.60

5%

---

79.420.09

68.430.12

53.10.3

31.90.2

23.60.2

10%

---

78.40.3

70.90.4

57.60.5

40.90.5

30.60.4

---

72.80.3

67.40.2

57.50.3

45.10.7

38.00.6

---

54.40

52.80

54.20

53.30

52.40

40%

---

45.60

47.20

45.80

46.70

47.60

5%

---

79.420.09

70.11.8

53.00.3

31.90.2

23.60.2

10%

---

78.40.3

70.90.4

57.70.5

40.90.5

30.60.4

---

72.80.3

67.40.2

57.50.3

45.10.7

38.00.6

---

54.40

52.80

54.20

53.30

52.40

---

45.60

47.20

45.80

46.70

47.60

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

5%

- 339 -

I. APNDICES DEL CAPTULO 2

Tabla 52. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Imagen.

5%

79.11.4

76.51.1

71.40.9

59.40.4

53.70.5

43.40.4

10%

4011

4010

3910

358

337

285

12.50

13.40

13.450

12.550

12.650

12.60

14.180

14.450

14.80

13.750

13.70

130

40%

14.50

15.850

14.50

14.750

13.60

15.550

5%

---

77.71.1

72.60.9

63.40.7

51.70.6

39.80.6

10%

---

4010

399

347

315

253

---

13.40

13.450

12.550

12.650

12.60

---

14.450

14.80

13.750

13.70

130

40%

---

15.850

14.50

14.750

13.60

15.550

5%

---

72.30.9

63.60.8

46.70.7

34.51.0

23.60.8

10%

---

3910

368

296

243

16.01.7

---

13.40

13.450

12.550

12.650

12.60

---

14.450

14.80

13.750

13.70

130

40%

---

15.850

14.50

14.750

13.60

15.550

5%

---

68.40.8

55.70.5

31.40.2

17.20.4

7.20.3

10%

---

389

358

275

212

12.50.7

---

13.40

13.450

12.550

12.650

12.60

---

14.450

14.80

13.750

13.70

130

40%

---

15.850

14.50

14.750

13.60

15.550

5%

---

50.80.3

41.570.14

24.840.14

13.480.13

6.090.06

10%

---

1811

159

106

7 4

2.91.8

---

0 0

0 0

0 0

0 0

0 0

---

0 0

0 0

0 0

0 0

0 0

---

0 0

0 0

0 0

0 0

0 0

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS IMAGEN METODO3


Test 5%
Test 10% Test 20% Test 30%

- 340 -

Test 40%

I. APNDICES DEL CAPTULO 2

Tabla 53. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Mushroom.

Test 0%

BASE DE DATOS MUSHROOM METODO3


Test 5%
Test 10% Test 20% Test 30% Test 40%

98.40.2

97.590.09

96.40.2

93.50.3

89.70.4

83.30.4

10%

96.10.3

95.760.16

94.470.13

92.980.15

89.000.15

80.20.3

94.61.7

94.01.6

93.01.3

92.11.1

89.11.0

85.90.6

62.270

61.30

62.10

60.50

61.670

63.070

40%

62.270

61.30

62.10

60.50

61.670

63.070

5%

---

97.590.09

96.40.2

93.50.3

89.60.4

83.30.4

10%

---

95.760.16

94.470.13

92.970.14

88.990.15

80.20.3

---

94.01.6

93.01.3

92.11.1

89.11.0

85.90.6

---

61.30

62.10

60.50

61.670

63.070

40%

---

61.30

62.10

60.50

61.670

63.070

5%

---

97.590.09

96.40.2

93.50.3

89.60.4

83.30.4

10%

---

95.760.16

94.470.13

92.970.14

88.990.15

80.20.3

---

94.01.6

93.01.3

92.11.1

89.11.0

85.90.6

---

61.30

62.10

60.50

61.670

63.070

40%

---

61.30

62.10

60.50

61.670

63.070

5%

---

94.10.3

86.880.19

63.90.4

40.60.6

21.00.8

10%

---

92.530.12

87.270.16

70.160.09

50.060.12

30.80.2

---

89.31.7

83.51.4

69.41.1

54.30.6

39.50.6

---

61.30

62.10

60.50

61.670

63.070

40%

---

61.30

62.10

60.50

61.670

63.070

5%

---

94.10.3

86.880.19

63.90.4

40.60.6

21.00.8

10%

---

92.520.11

87.260.16

70.140.09

50.040.12

30.80.2

---

89.31.7

83.41.4

69.81.1

54.30.6

39.50.6

---

61.30

62.10

60.50

61.670

63.070

---

61.30

62.10

60.50

61.670

63.070

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

5%

- 341 -

I. APNDICES DEL CAPTULO 2

Tabla 54. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Mok1.

Test 0%

BASE DE DATOS MOK1 METODO3


Test 5%
Test 10% Test 20% Test 30%

Test 40%

790

79.050

76.450

74.150

70.350

67.350

10%

75.31.8

75.51.7

73.51.5

71.81.3

69.10.6

66.10.7

490

49.350

49.10

49.80

47.450

49.350

490

49.350

49.10

49.80

47.450

49.350

40%

490

49.350

49.10

49.80

47.450

49.350

5%

---

79.050

76.450

74.150

70.350

67.350

10%

---

75.51.7

73.51.5

71.81.3

69.10.6

66.10.7

---

49.350

49.10

49.80

47.450

49.350

---

49.350

49.10

49.80

47.450

49.350

40%

---

49.350

49.10

49.80

47.450

49.350

5%

---

79.050

76.450

74.150

70.350

67.350

10%

---

75.51.7

73.51.5

71.81.3

69.10.6

66.10.7

---

49.350

49.10

49.80

47.450

49.350

---

49.350

49.10

49.80

47.450

49.350

40%

---

49.350

49.10

49.80

47.450

49.350

5%

---

76.750

71.650

64.350

54.70

46.750

10%

---

72.71.9

67.81.9

60.51.8

51.51.5

43.01.7

---

49.350

49.10

49.80

47.450

49.350

---

49.350

49.10

49.80

47.450

49.350

40%

---

49.350

49.10

49.80

47.450

49.350

5%

---

76.750

71.650

64.350

54.70

46.750

10%

---

72.71.9

67.81.9

60.51.8

51.51.5

43.01.7

---

49.350

49.10

49.80

47.450

49.350

---

49.350

49.10

49.80

47.450

49.350

---

49.350

49.10

49.80

47.450

49.350

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

5%

- 342 -

I. APNDICES DEL CAPTULO 2

Tabla 55. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Mok2.

Test 0%

BASE DE DATOS MOK2 METODO3


Test 5%
Test 10% Test 20% Test 30%

Test 40%

680

69.250

68.450

69.60

67.60

67.40

10%

680

69.250

68.450

69.60

67.60

67.40

680

69.250

68.450

69.60

67.60

67.40

680

69.250

68.450

69.60

67.60

67.40

40%

680

69.250

68.450

69.60

67.60

67.40

5%

---

69.250

68.450

69.60

67.60

67.40

10%

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

40%

---

69.250

68.450

69.60

67.60

67.40

5%

---

69.250

68.450

69.60

67.60

67.40

10%

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

40%

---

69.250

68.450

69.60

67.60

67.40

5%

---

69.250

68.450

69.60

67.60

67.40

10%

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

40%

---

69.250

68.450

69.60

67.60

67.40

5%

---

69.250

68.450

69.60

67.60

67.40

10%

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

---

69.250

68.450

69.60

67.60

67.40

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

5%

- 343 -

I. APNDICES DEL CAPTULO 2

Tabla 56. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Mok3.

Test 0%

BASE DE DATOS MOK3 METODO3


Test 5%
Test 10% Test 20% Test 30%

Test 40%

790

80.550

80.150

77.50

78.20

770

10%

890

88.50

87.450

84.050

83.350

80.250

89.51.6

87.41.5

85.51.4

81.51.1

79.20.9

75.80.6

540

540

53.20

53.90

55.650

53.90

40%

540

540

53.20

53.90

55.650

53.90

5%

---

80.550

80.150

77.50

78.20

770

10%

---

88.50

87.450

84.050

83.350

80.250

---

87.41.5

85.51.4

81.51.1

79.20.9

75.80.6

---

540

53.20

53.90

55.650

53.90

40%

---

540

53.20

53.90

55.650

53.90

5%

---

80.550

80.150

77.50

78.20

770

10%

---

88.50

87.450

84.050

83.350

80.250

---

87.41.5

85.51.4

81.51.1

79.20.9

75.80.6

---

540

53.20

53.90

55.650

53.90

40%

---

540

53.20

53.90

55.650

53.90

5%

---

74.050

690

57.350

47.80

40.250

10%

---

82.850.03

77.570.05

66.180.05

55.60.2

47.30.5

---

83.71.2

78.80.7

68.40.3

59.30.3

51.10.7

---

540

53.20

53.90

55.650

53.90

40%

---

540

53.20

53.90

55.650

53.90

5%

---

74.050

690

57.350

47.80

40.250

10%

---

82.850.03

77.570.05

66.180.05

55.60.2

47.30.5

---

83.71.2

78.80.7

68.40.3

59.30.3

51.10.7

---

540

53.20

53.90

55.650

53.90

---

540

53.20

53.90

55.650

53.90

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

5%

- 344 -

I. APNDICES DEL CAPTULO 2

Tabla 57. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Musk.

Test 0%
5%

20%

90.5560.014 91.020.03

POR 1

10%

BASE DE DATOS MUSK METODO3


Test 5%
Test 10% Test 20% Test 30%
91.060.04

85.420.19

71.30.6

Test 40%
46.71.1

87.140.02 86.4330.015 86.1060.018 84.9890.007 84.2110.016 84.4560.016


83.730

84.130

84.030

83.570

84.170

83.730

83.730

84.130

84.030

83.570

84.170

40%

83.730

83.730

84.130

84.030

83.570

84.170

5%

---

91.020.03

91.050.04

85.440.18

71.30.6

46.71.1

10%

---

30%

20%

POR 2

83.730

86.4330.015 86.1060.018 84.9890.007 84.2110.016 84.4560.016


83.730

84.130

84.030

83.570

84.170

---

83.730

84.130

84.030

83.570

84.170

40%

---

83.730

84.130

84.030

83.570

84.170

5%

---

91.020.03

91.050.04

85.420.19

71.30.6

46.71.1

10%

---

30%

20%

POR 3

---

86.4330.015 86.1060.018 84.9890.007 84.2110.016 84.4560.016


83.730

84.130

84.030

83.570

84.170

---

83.730

84.130

84.030

83.570

84.170

40%

---

83.730

84.130

84.030

83.570

84.170

5%

---

87.020.02

81.340.16

59.30.5

30.80.7

9.70.4

10%

---

72.60.3

62.60.4

30%

20%

POR 4

---

85.6830.014 84.5060.016 79.790.08


83.730

84.130

84.030

83.570

84.170

---

83.7330

84.130

84.030

83.570

84.170

40%

---

83.730

84.130

84.030

83.570

84.1670

5%

---

87.020.02

81.340.16

59.30.5

30.80.7

9.70.4

10%

---

72.70.3

62.60.4

30%

20%
30%
40%

POR 5

---

85.6830.014 84.5000.019 79.790.08

---

83.730

84.130

84.030

83.570

84.170

---

83.730

84.130

84.030

83.570

84.170

---

83.730

84.130

84.030

83.570

84.170

- 345 -

I. APNDICES DEL CAPTULO 2

Tabla 58. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Pima.

Test 0%

BASE DE DATOS PIMA METODO3


Test 5%
Test 10% Test 20% Test 30%

Test 40%

760

74.180.15

74.840.11

73.480.03

10%

65.20

65.20

65.20

65.40

66.40

65.950

65.20

65.20

65.20

65.40

66.40

65.950

65.20

65.20

65.20

65.40

66.40

65.950

40%

65.20

65.20

65.20

65.40

66.40

65.950

5%

---

74.180.15

74.840.11

73.480.03

10%

---

65.20

65.20

65.40

66.40

65.950

---

65.20

65.20

65.40

66.40

65.950

---

65.20

65.20

65.40

66.40

65.950

40%

---

65.20

65.20

65.40

66.40

65.950

5%

---

74.180.15

74.840.11

73.480.03

10%

---

65.20

65.20

65.40

66.40

65.950

---

65.20

65.20

65.40

66.40

65.950

---

65.20

65.20

65.40

66.40

65.950

40%

---

65.20

65.20

65.40

66.40

65.950

5%

---

69.850.13

66.600.06

57.960.07

48.520.05

40.840.10

10%

---

65.20

65.20

65.40

66.40

65.950

---

65.20

65.20

65.40

66.40

65.950

---

65.20

65.20

65.40

66.40

65.950

40%

---

65.20

65.20

65.40

66.40

65.950

5%

---

69.830.13

66.600.06

57.960.07

48.530.06

40.830.10

10%

---

65.20

65.20

65.40

66.40

65.950

---

65.20

65.20

65.40

66.40

65.950

---

65.20

65.20

65.40

66.40

65.950

---

65.20

65.20

65.40

66.40

65.950

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

5%

- 346 -

73.240.05 73.3000.013

73.240.05 73.3000.013

73.240.05 73.3000.013

I. APNDICES DEL CAPTULO 2

Tabla 59. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Thyroides.

Test 40%

5%

93.50.3

94.180.18

93.50.2

93.30.2

94.320.09

93.630.16

10%

93.270

940

93.30

93.030

94.230

93.470

93.270

940

93.30

93.030

94.230

93.470

93.270

940

93.30

93.030

94.230

93.470

40%

93.270

940

93.30

93.030

94.230

93.470

5%

---

94.170.17

93.50.2

93.210.18

94.310.08

93.540.07

10%

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

40%

---

940

93.30

93.030

94.230

93.470

5%

---

94.170.17

93.490.19

93.210.18

94.290.06

93.540.07

10%

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

40%

---

940

93.30

93.030

94.230

93.470

5%

---

94.130.13

93.270.03

92.50.6

92.71.5

913

10%

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

40%

---

940

93.30

93.030

94.230

93.470

5%

---

93.890.11

93.00.3

91.91.2

922

904

10%

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

---

940

93.30

93.030

94.230

93.470

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS THYROIDES METODO3


Test 5%
Test 10% Test 20% Test 30%

- 347 -

I. APNDICES DEL CAPTULO 2

Tabla 60. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Vote.

Test 0%

BASE DE DATOS VOTE METODO3


Test 5%
Test 10% Test 20% Test 30%

Test 40%

95.250.05

89.750.13

84.720.14

91.90.2

88.80.2

91.270.02

90.120.08

86.420.11

950

10%

940

94.4830.017 93.6170.017 92.050.03

940

94.2830.017 93.030.02

20%
30%

POR 1

5%

94.000.05

92.320.04

92.430.02

91.150.04

87.830.08

86.400.04

81.730.06

40%

930

90.60

890

85.50

85.30

810

5%

---

95.250.05

94.000.05

92.320.04

89.730.12

84.720.14

10%

---

94.4830.017 93.6170.017 92.050.03

91.90.2

88.80.3

---

94.2830.017 93.030.02

91.270.02

90.080.09

86.420.09

20%
30%

POR 2

920

92.430.02

91.150.04

87.830.08

86.400.04

81.730.07

40%

---

90.60

890

85.50

85.30

810

5%

---

95.250.05

94.000.05

92.320.04

89.730.12

84.720.14

10%

---

94.4830.017 93.6170.017 92.050.03

91.90.2

88.80.3

---

94.2830.017 93.030.02

91.270.02

90.070.09

86.400.10

20%
30%

POR 3

---

92.430.02

91.150.04

87.830.08

86.400.04

81.720.07

40%

---

90.60

890

85.50

85.30

810

5%

---

93.480.06

88.150.04

78.130.05

62.50.3

47.20.3

10%

---

92.480.03

88.080.03

79.470.07

66.250.06

51.100.06

---

930

89.170.03

81.580.15

71.450.05

56.280.15

---

89.70

86.3830.017 78.000.06

70.900.05

57.620.07

40%

---

88.10

83.80

73.10

630

54.30

5%

---

93.480.06

88.150.04

78.130.05

62.50.3

47.20.3

10%

---

92.480.03

88.080.03

79.470.07

66.250.06

51.100.06

---

930

89.170.03

81.580.15

71.450.05

56.280.15

---

89.70

86.3830.017 78.000.06

70.880.06

57.620.07

---

88.10

630

54.30

30%

20%
30%
40%

POR 5

20%

POR 4

---

83.80

- 348 -

73.10

I. APNDICES DEL CAPTULO 2

Tabla 61. Porcentaje de correcta clasificacin para los diferentes porcentajes


de entradas desconocidas en el entrenamiento y test en el mtodo 3.
Base de datos Wdbc.

5%

98.130.16

97.930.10

97.980.05

96.580.12

93.30.3

87.80.5

10%

95.60.3

95.920.15

95.820.09

94.600.14

92.10.4

86.70.4

91.250

88.80

87.80

87.10

84.30

79.80

64.3750

64.60

650

64.50

65.10

63.10

40%

64.3750

64.60

650

64.50

65.10

63.10

5%

---

97.930.10

97.980.05

96.570.12

93.30.3

87.80.5

10%

---

95.920.15

95.820.09

94.600.14

92.20.4

86.70.4

---

88.80

87.80

87.10

84.30

79.80

---

64.60

650

64.50

65.10

63.10

40%

---

64.60

650

64.50

65.10

63.10

5%

---

97.930.10

97.980.05

96.570.12

93.30.3

87.80.5

10%

---

95.920.15

95.820.09

94.600.14

92.1 0.4

86.70.4

---

88.80

87.80

87.10

84.30

79.80

---

64.60

650

64.50

65.10

63.10

40%

---

64.60

650

64.50

65.10

63.10

5%

---

88.800.15

76.40.3

46.40.4

24.400.15

12.550.14

10%

---

90.40.2

82.700.12

61.200.17

39.70.3

23.50.3

---

84.80

81.20

73.70

65.40

570

---

64.60

650

64.50

65.10

63.10

40%

---

64.60

650

64.50

65.10

63.10

5%

---

88.800.15

76.40.3

46.40.4

24.400.15

12.550.14

10%

---

90.40.2

82.720.12

61.200.17

39.70.3

23.50.3

---

84.80

81.20

73.70

65.40

570

---

64.60

650

64.50

65.10

63.10

---

64.60

650

64.50

65.10

63.10

20%
30%

20%
30%

20%
30%
40%

POR 2

30%

POR 3

20%

POR 4

30%

POR 5

20%

POR 1

Test 0%

BASE DE DATOS WDBC METODO3


Test 5%
Test 10% Test 20% Test 30%

- 349 -

Test 40%

I. APNDICES DEL CAPTULO 2

I.3. Comparacin entre los mtodos 2 y 3


Tabla 62. Resultados de la comparacin entre los mtodos 2 y 3 para igual
porcentaje de entradas desconocidas en el entrenamiento y en el test.
Criterio de clasificacin POR1.
Base de datos Medida POR
5%
ABALONE POR1
10%
20%
30%
40%
5%
BALANCE POR1
10%
20%
30%
40%
POR1
5%
BANDS
10%
20%
30%
40%
POR1
5%
BUPA
10%
20%
30%
40%
POR1
5%
CREDITO
10%
20%
30%
40%
POR1
5%
DISPLAY1
10%
20%
30%
40%
POR1
5%
DISPLAY2
10%
20%
30%
40%
POR1
5%
GLASS
10%
20%
30%
40%
POR1
5%
HEART
10%
20%
30%
40%

Ishibuchi

Hernndez

54.90.3
404
34.90
34.40
33.430
82.50
79.950.16
66.170.16
45.40
47.40
69.80.2
66.40
63.80
67.20
67.20
55.90
51.40
51.60
52.80
53.20
85.240.11
83.70.2
84.10
77.250
52.20
71.40.5
559
8.70
11.250
9.30
69.580.13
279
11.150
10.30
8.650
77.00.5
67.50.6
484
290
30.70
83.970.03
81.90.3
75.520.10
53.30
47.60

57.61.4
55.10.2
54.50.5
50.90
48.920.13
82.50
79.980.10
75.850.16
74.00.3
70.130.14
73.30.4
69.00.3
67.530.10
67.350.10
67.20
60.950.08
51.8170.017
51.60
52.80
53.20
85.980.11
83.80.2
84.10
82.30
73.250
71.90.2
67.100.17
56.31.7
49.30.6
39.70.9
68.780.12
62.940.08
57.21.3
49.90.6
35.50.
78.670.18
73.30.5
64.10.3
58.050.14
50.80.2
82.20.3
82.430.14
78.430.10
75.70.3
73.050.16

- 350 -

Categora
3
4
4
4
4
1
2
3
4
4
3
3
3
2
1
3
2
1
1
1
2
2
1
3
4
2
4
4
4
4
5
4
4
4
4
2
3
4
4
4
5
2
3
4
4

I. APNDICES DEL CAPTULO 2

Tabla 62. (Continuacin)


Base de datos Medida POR
POR1
5%
IMAGEN
10%
20%
30%
40%
MUSHROOM POR1
5%
10%
20%
30%
40%
POR1
5%
MOK1
10%
20%
30%
40%
POR1
5%
MOK2
10%
20%
30%
40%
POR1
5%
MOK3
10%
20%
30%
40%
POR1
5%
MUSK
10%
20%
30%
40%
POR1
5%
PIMA
10%
20%
30%
40%
THYROIDES POR1
5%
10%
20%
30%
40%
POR1
5%
VOTE
10%
20%
30%
40%
5%
POR1
WDBC
10%
20%
30%
40%

Ishibuchi

Hernndez

76.51.1
3910
12.550
13.70
15.550
97.590.09
94.470.13
92.11.1
61.670
63.070
79.050
73.51.5
49.80
47.450
49.350
69.250
68.450
69.60
67.60
67.40
80.550
87.450
81.51.1
55.650
53.90
91.020.03
86.1060.018
84.030
83.570
84.170
74.180.15
65.20
65.40
66.40
65.950
94.180.18
93.30
93.030
94.230
93.470
95.250.05
93.6170.017
91.270.02
86.400.04
810
97.930.10
95.820.09
87.10
65.10
63.10

86.00.3
81.30.4
59.50.6
54.41.7
45.81.0
98.010.10
97.110.19
93.20.3
84.10.5
82.9610.013
79.0670.017
68.40.3
73.70.6
70.350
67.450.09
69.250
68.450
69.60
67.60
67.40
82.50.3
88.00.4
85.20.6
78.20.2
77.750
93.440.10
90.710.14
86.980.09
84.970.14
84.340.07
69.00.4
72.80.4
65.830.03
66.40
65.950
94.5280.006
93.30
93.030
94.230
93.470
95.620.03
93.800.10
91.650.03
91.050.12
91.020.07
98.2830.017
96.770.06
89.00.2
85.20.2
75.60.6

- 351 -

Categora
3
4
4
4
4
2
3
2
4
4
2
6
4
4
4
1
1
1
1
1
2
2
3
4
4
3
3
3
2
2
6
3
2
1
1
2
1
1
1
1
2
2
2
3
4
2
2
2
4
4

I. APNDICES DEL CAPTULO 2

Tabla 63. Resultados de la comparacin entre los mtodos 2 y 3 para igual


porcentaje de entradas desconocidas en el entrenamiento y en el test.
Criterio de clasificacin POR2.
Base de datos Medida POR
5%
ABALONE POR2
10%
20%
30%
40%
5%
BALANCE POR2
10%
20%
30%
40%
POR2
5%
BANDS
10%
20%
30%
40%
POR2
5%
BUPA
10%
20%
30%
40%
POR2
5%
CREDITO
10%
20%
30%
40%
POR2
5%
DISPLAY1
10%
20%
30%
40%
POR2
5%
DISPLAY2
10%
20%
30%
40%
POR2
5%
GLASS
10%
20%
30%
40%
POR2
5%
HEART
10%
20%
30%
40%

Ishibuchi

Hernndez

55.40.2
403
34.90
34.40
33.430
82.10
80.10.2
65.90.2
45.40
47.40
69.80.2
66.40
63.80
67.20
67.20
55.90
51.40
51.60
52.80
53.20
85.230.11
83.740.19
84.10
77.250
52.20
71.00.3
549
8.70
11.250
9.30
69.630.10
289
11.150
10.30
8.650
76.50.5
67.40.4
474
290
30.70
83.970.03
81.90.3
75.520.10
53.30
47.60

57.61.3
54.190.16
53.30.3
50.7610.006
46.60.2
81.220.08
78.400.09
75.650.18
73.80.3
70.30.2
73.30.4
68.90.3
67.550.11
67.350.10
67.20
60.950.08
51.8170.017
51.60
52.80
53.20
85.970.11
83.80.2
84.10
82.30
73.250
71.740.19
67.930.18
53.71.8
46.00.8
39.21.1
68.940.07
64.760.13
55.51.0
45.40.9
35.30.6
78.230.06
71.80.5
61.20.7
56.20.2
52.550.10
82.10.3
82.430.14
78.430.10
75.70.3
73.070.16

- 352 -

Categora
3
4
4
4
4
5
5
3
4
4
3
3
3
2
1
3
2
1
1
1
2
2
1
3
4
2
4
4
4
4
5
4
4
4
4
2
3
4
4
4
5
2
3
4
4

I. APNDICES DEL CAPTULO 2

Tabla 63. (Continuacin).


Base de datos Medida POR
POR2
5%
IMAGEN
10%
20%
30%
40%
MUSHROOM POR2
5%
10%
20%
30%
40%
POR2
5%
MOK1
10%
20%
30%
40%
POR2
5%
MOK2
10%
20%
30%
40%
POR2
5%
MOK3
10%
20%
30%
40%
POR2
5%
MUSK
10%
20%
30%
40%
5%
POR2
PIMA
10%
20%
30%
40%
THYROIDES POR2
5%
10%
20%
30%
40%
POR2
5%
VOTE
10%
20%
30%
40%
POR2
5%
WDBC
10%
20%
30%
40%

Ishibuchi

Hernndez

77.71.1
399
12.550
13.70
15.550
97.590.09
94.470.13
92.11.1
61.670
63.070
79.050
73.51.5
49.80
47.450
49.350
69.250
68.450
69.60
67.60
67.40
80.550
87.450
81.51.1
55.650
53.90
91.020.03
86.1060.018
84.030
83.570
84.170
74.180.15
65.20
65.40
66.40
65.950
94.170.17
93.30
93.030
94.230
93.470
95.250.05
93.6170.017
91.270.02
86.400.04
810
97.930.10
95.820.09
87.10
65.10
63.10

85.580.18
79.90.3
62.30.5
46.61.4
32.01.1
98.010.10
97.110.19
93.20.3
84.10.5
82.9610.013
79.0670.017
68.30.3
73.70.6
70.350
67.450.09
69.250
68.450
69.60
67.60
67.40
82.50.3
88.00.4
85.20.6
78.20.2
77.750
93.440.10
90.720.15
86.980.09
84.970.14
84.350.07
69.00.4
72.80.4
65.830.03
66.40
65.950
94.470
93.30
93.030
94.230
93.470
95.620.03
93.800.10
91.630.02
91.050.12
91.020.07
98.2830.017
96.780.07
89.10.2
85.180.17
75.60.6

- 353 -

Categora
3
4
4
4
4
2
3
2
4
4
2
6
4
4
4
1
1
1
1
1
2
2
3
4
4
3
3
3
2
2
6
3
2
1
1
2
1
1
1
1
2
2
2
3
4
2
2
2
4
4

I. APNDICES DEL CAPTULO 2

Tabla 64. Resultados de la comparacin entre los mtodos 2 y 3 para igual


porcentaje de entradas desconocidas en el entrenamiento y en el test.
Criterio de clasificacin POR3.
Base de datos Medida POR
5%
ABALONE POR3
10%
20%
30%
40%
5%
BALANCE POR3
10%
20%
30%
40%
POR3
5%
BANDS
10%
20%
30%
40%
POR3
5%
BUPA
10%
20%
30%
40%
POR3
5%
CREDITO
10%
20%
30%
40%
POR3
5%
DISPLAY1
10%
20%
30%
40%
POR3
5%
DISPLAY2
10%
20%
30%
40%
POR3
5%
GLASS
10%
20%
30%
40%
POR3
5%
HEART
10%
20%
30%
40%

Ishibuchi

Hernndez

53.20.2
403
34.90
34.40
33.430
82.10
79.770.18
65.00.2
45.40
47.40
69.80.2
66.40
63.80
67.20
67.20
55.90
51.40
51.60
52.80
53.20
84.50.7
83.740.19
84.10
77.250
52.20
68.60.5
498
8.70
11.250
9.30
67.180.10
258
11.150
10.30
8.650
75.70.4
63.90.7
413
290
30.70
83.970.03
81.90.3
75.520.10
53.30
47.60

513
49.80.3
43.80.9
46.530
36.20.6
80.320.08
78.000.09
75.50.2
73.80.3
69.10.4
73.20.4
69.00.3
67.530.10
67.350.10
67.20
60.950.08
51.8170.017
51.60
52.80
53.20
85.970.11
83.80.2
84.10
82.30
73.250
69.70.3
64.00.2
43.51.3
30.30.9
22.01.1
66.580.09
59.230.09
45.31.2
31.31.0
17.60.9
76.880.06
69.60.4
56.91.8
44.720.15
35.870.12
82.10.3
82.430.14
78.420.10
75.70.3
73.050.16

- 354 -

Categora
6
3
3
4
3
5
5
4
4
4
3
3
3
2
1
3
2
1
1
1
2
2
1
3
4
2
4
4
4
4
5
4
4
4
3
2
3
4
4
3
5
2
3
4
4

I. APNDICES DEL CAPTULO 2

Tabla 64. (Continuacin).


Base de datos Medida POR
POR3
5%
IMAGEN
10%
20%
30%
40%
MUSHROOM POR3
5%
10%
20%
30%
40%
POR3
5%
MOK1
10%
20%
30%
40%
POR3
5%
MOK2
10%
20%
30%
40%
POR3
5%
MOK3
10%
20%
30%
40%
POR3
5%
MUSK
10%
20%
30%
40%
5%
POR3
PIMA
10%
20%
30%
40%
THYROIDES POR3
5%
10%
20%
30%
40%
POR3
5%
VOTE
10%
20%
30%
40%
POR3
5%
WDBC
10%
20%
30%
40%

Ishibuchi

Hernndez

72.30.9
368
12.550
13.70
15.550
97.590.09
94.470.13
92.11.1
61.670
63.070
79.050
73.51.5
49.80
47.450
49.350
69.250
68.450
69.60
67.60
67.40
80.550
87.450
81.51.1
55.650
53.90
91.020.03
86.1060.018
84.030
83.570
84.170
74.180.15
65.20
65.40
66.40
65.950
94.170.17
93.30
93.030
94.230
93.470
95.250.05
93.6170.017
91.270.02
86.400.04
810
97.930.10
95.820.09
87.10
65.10
63.10

81.50.2
72.60.2
48.00.7
30.60.9
15.60.6
98.010.10
97.110.19
93.20.3
84.10.5
82.9610.013
79.0670.017
68.30.3
73.70.6
70.350
67.450.09
69.250
68.450
69.60
67.60
67.40
82.50.3
88.00.4
85.20.6
78.20.2
77.750
93.440.10
90.710.14
86.980.09
84.970.14
84.340.07
69.00.4
72.80.4
65.830.03
66.40
65.950
94.470
93.30
93.030
94.230
93.470
95.620.03
93.800.10
91.630.02
91.050.12
91.020.07
98.2830.017
96.770.06
89.00.2
85.150.18
75.60.6

- 355 -

Categora
3
4
4
4
2
2
3
2
4
4
2
6
4
4
4
1
1
1
1
1
2
2
3
4
4
3
3
3
2
2
6
3
2
1
1
2
1
1
1
1
2
2
2
3
4
2
2
2
4
4

I. APNDICES DEL CAPTULO 2

Tabla 65. Resultados de la comparacin entre los mtodos 2 y 3 para igual


porcentaje de entradas desconocidas en el entrenamiento y en el test.
Criterio de clasificacin POR4.
Base de datos Medida POR
5%
ABALONE POR4
10%
20%
30%
40%
5%
BALANCE POR4
10%
20%
30%
40%
POR4
5%
BANDS
10%
20%
30%
40%
POR4
5%
BUPA
10%
20%
30%
40%
POR4
5%
CREDITO
10%
20%
30%
40%
POR4
5%
DISPLAY1
10%
20%
30%
40%
POR4
5%
DISPLAY2
10%
20%
30%
40%
POR4
5%
GLASS
10%
20%
30%
40%
POR4
5%
HEART
10%
20%
30%
40%

Ishibuchi

Hernndez

52.10.4
383
34.90
34.40
33.430
75.80
64.600.11
49.450.11
45.40
47.40
63.30.3
66.40
63.80
67.20
67.20
55.90
51.40
51.60
52.80
53.20
80.470.09
75.820.19
69.70
60.150
52.20
63.10.5
426
8.70
11.250
9.30
60.550.14
227
11.150
10.30
8.650
74.80.4
63.20.7
413
290
30.70
79.420.09
70.90.4
57.50.3
53.30
47.60

447
44.90.3
39.01.8
29.9610.006
21.50.7
75.80
64.280.08
50.40
38.50.3
27.800.13
57.90.4
45.80.3
47.950.16
64.71.6
67.20
48.670.11
43.400.14
51.60
52.80
53.20
80.450.17
74.570.10
69.90
60.150
52.40
62.90.2
51.080.16
30.21.1
17.90.6
10.60.3
58.660.12
48.210.15
29.30.9
17.10.3
9.40.6
74.900.12
67.60.4
52.80.3
41.70.2
34.40.5
75.40.2
69.280.16
57.330.18
46.70.3
37.90.5

- 356 -

Categora
6
3
3
6
7
1
5
2
6
7
6
7
7
6
1
6
6
1
1
1
5
5
2
1
2
5
3
4
3
2
5
4
4
3
2
2
3
4
4
3
6
5
5
6
6

I. APNDICES DEL CAPTULO 2

Tabla 65. (Continuacin).


Base de datos Medida POR
POR4
5%
IMAGEN
10%
20%
30%
40%
MUSHROOM POR4
5%
10%
20%
30%
40%
POR4
5%
MOK1
10%
20%
30%
40%
POR4
5%
MOK2
10%
20%
30%
40%
POR4
5%
MOK3
10%
20%
30%
40%
POR4
5%
MUSK
10%
20%
30%
40%
5%
POR4
PIMA
10%
20%
30%
40%
THYROIDES POR4
5%
10%
20%
30%
40%
POR4
5%
VOTE
10%
20%
30%
40%
POR4
5%
WDBC
10%
20%
30%
40%

Ishibuchi

Hernndez

68.40.8
358
12.550
13.70
15.550
94.10.3
87.270.16
69.41.1
61.670
63.070
76.750
67.81.9
49.80
47.450
49.350
69.250
68.450
69.60
67.60
67.40
74.050
77.570.05
68.40.3
55.650
53.90
87.020.02
84.5060.016
84.030
83.570
84.170
69.850.13
65.20
65.40
66.40
65.950
94.130.13
93.30
93.030
94.230
93.470
93.480.06
88.080.03
81.580.15
70.900.05
54.30
88.800.15
82.700.12
73.70
65.10
63.10

71.00.3
57.70.4
33.50.3
18.01.1
7.60.9
94.10.3
88.10.3
70.70.6
60.780.19
51.110.10
77.30.5
61.60.2
63.60.4
54.70
46.750
69.250
68.450
69.60
67.60
67.40
75.90.3
76.90.3
66.20.4
47.00.4
48.050
86.930.16
82.360.07
81.540.05
82.2780.019
82.760.03
61.10.5
64.40.2
56.780.02
66.40
65.950
94.10
93.230
93.030
94.230
93.470
93.270.04
87.750.10
79.830.09
70.180.18
53.950.12
87.300.09
77.150.09
70.20.6
53.21.1
49.81.0

- 357 -

Categora
3
4
4
3
6
1
2
2
5
7
2
6
4
3
6
1
1
1
1
1
2
5
6
6
6
5
6
6
5
5
6
5
6
1
1
5
5
1
1
1
5
5
5
5
5
5
6
6
7
7

I. APNDICES DEL CAPTULO 2

Tabla 66. Resultados de la comparacin entre los mtodos 2 y 3 para igual


porcentaje de entradas desconocidas en el entrenamiento y en el test.
Criterio de clasificacin POR5.
Base de datos Medida POR
5%
ABALONE POR5
10%
20%
30%
40%
5%
BALANCE POR5
10%
20%
30%
40%
POR5
5%
BANDS
10%
20%
30%
40%
POR5
5%
BUPA
10%
20%
30%
40%
POR5
5%
CREDITO
10%
20%
30%
40%
POR5
5%
DISPLAY1
10%
20%
30%
40%
POR5
5%
DISPLAY2
10%
20%
30%
40%
POR5
5%
GLASS
10%
20%
30%
40%
POR5
5%
HEART
10%
20%
30%
40%

Ishibuchi

Hernndez

292
4 2
0 0
0 0
0 0
73.130.06
61.220.08
26.60.8
45.40
0 0
63.30.3
66.40
63.80
67.20
67.20
55.90
51.40
51.60
52.80
53.20
80.70.4
75.820.19
69.90
60.150
52.20
41.90.6
153
0 0
0 0
0 0
46.370.18
6 4
0 0
0 0
0 0
69.50.3
484
163
0 0
0 0
79.420.09
70.90.4
57.50.3
53.30
47.60

264
30.790.10
17.21.9
2.50
0.7280.006
72.30
60.3830.017
46.630.19
29.100.17
15.30.2
57.90.4
45.80.3
47.950.16
64.71.6
67.20
48.670.11
43.430.15
51.60
52.80
53.20
80.450.17
74.580.10
69.90
60.150
52.40
51.20.9
40.80.4
10.30.8
2.40.3
0 0
49.30.4
31.90.3
11.30.4
5.30.5
0 0
69.500.19
63.270.08
43.71.4
16.120.12
10.70.4
75.40.2
69.270.15
57.330.18
46.70.3
37.90.5

- 358 -

Categora
6
4
4
3
2
5
5
4
7
4
6
7
7
6
1
6
6
1
1
1
5
5
1
1
2
3
4
4
3
1
3
4
4
3
1
1
4
4
4
4
6
5
5
6
6

I. APNDICES DEL CAPTULO 2

Tabla 66. (Continuacin).


Base de datos Medida POR
POR5
5%
IMAGEN
10%
20%
30%
40%
MUSHROOM POR5
5%
10%
20%
30%
40%
POR5
5%
MOK1
10%
20%
30%
40%
POR5
5%
MOK2
10%
20%
30%
40%
POR5
5%
MOK3
10%
20%
30%
40%
POR5
5%
MUSK
10%
20%
30%
40%
5%
POR5
PIMA
10%
20%
30%
40%
THYROIDES POR5
5%
10%
20%
30%
40%
POR5
5%
VOTE
10%
20%
30%
40%
POR5
5%
WDBC
10%
20%
30%
40%

Ishibuchi

Hernndez

50.80.3
159
0 0
0 0
0 0
94.10.3
87.260.16
69.81.1
61.670
63.070
76.750
67.81.9
49.80
47.450
49.350
69.250
68.450
69.60
67.60
67.40
74.050
77.570.05
68.40.3
55.650
53.90
87.020.02
84.5000.019
84.030
83.570
84.170
69.830.13
65.20
65.40
66.40
65.950
93.890.11
93.30
93.030
94.230
93.470
93.480.06
88.080.03
81.580.15
70.880.06
54.30
88.800.15
82.720.12
73.70
65.10
63.10

62.60.6
45.60.7
22.80.3
6.850.18
0.80.2
94.10.3
88.10.3
70.70.6
60.780.19
51.110.10
77.30.5
61.60.2
63.60.4
54.70
46.750
69.250
68.450
69.60
67.60
67.40
75.90.3
76.90.3
66.20.4
47.00.4
48.050
86.940.16
82.370.08
81.540.05
82.2780.019
82.760.03
61.10.5
64.40.2
56.780.02
66.40
65.950
93.7720
93.0720.006
93.030
94.230
93.470
93.280.03
87.750.10
79.850.09
70.180.18
53.950.12
87.300.09
77.150.09
70.10.6
53.31.1
49.81.0

- 359 -

Categora
4
4
4
3
2
1
2
2
5
7
2
6
4
3
6
1
1
1
1
1
2
5
6
6
6
5
6
6
5
5
6
6
6
1
1
5
5
1
1
1
5
5
5
5
5
5
6
6
7
7

I. APNDICES DEL CAPTULO 2

- 360 -

II. Apndices del Captulo 3


II.1. Ordenaciones de las entradas para ARNMF y ACE
Tabla 11. Ordenacin de las entradas segn su importancia para los
mtodos ARNMF y ACE. Problema AB.
BASE DE DATOS AB

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1
2
3
4
5
6
7
8
9
1
5
8
7
3
6
4
9
7
1
5
8
7
3
6
4
9
2
5
1
8
6
7
9
3
4
2
2
1
7
4
5
6
8
3
9
5
6
8
3
9
7
4
2
1
1
5
8
7
3
6
4
9
2
2
4
3
5
7
1
9
6
8
1
5
8
7
3
6
4
2
9
5
8
7
6
1
9
3
2
4
1
5
3
8
2
6
4
7
9
1
5
2
8
3
6
4
7
9
1
5
3
8
2
6
4
7
9
1
5
8
3
6
7
4
2
9
5
8
1
3
6
4
7
9
2
1
5
8
6
7
9
3
4
2
1
5
8
3
6
4
2
7
9
9
2
4
6
8
3
5
1
7
5
7
8
9
2
6
1
3
4
Divisin por cero
6
3
4
8
7
5
1
2
9
6
3
4
8
7
5
1
2
9
6
4
3
8
7
5
1
2
9
6
4
3
8
7
5
1
2
9
6
4
3
8
7
5
2
1
9
6
4
3
8
7
5
2
1
9
1
2
7
5
3
8
6
4
9
1
7
3
6
4
8
9
2
5
1
2
7
8
5
6
9
3
4
Da cero
2
4
6
9
3
8
7
5
1
2
3
5
4
8
7
9
1
6

- 361 -

II. APNDICES DEL CAPTULO 3

Tabla 12. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema BL.
BASE DE DATOS BL

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1
2
3
4
5
4
2
3
5
1
4
2
1
5
3
1
4
2
3
5
5
3
1
2
4
3
4
5
1
2
1
4
2
3
5
3
2
1
4
5
3
1
4
2
5
3
4
1
2
5
1
4
3
2
5
1
4
2
3
5
1
4
3
5
2
4
5
3
2
1
5
1
4
3
2
1
4
5
2
3
1
2
4
3
5
5
3
2
4
1
1
5
3
2
4
Divisiones por cero
1
4
3
5
2
1
4
3
5
2
1
4
3
5
2
1
4
3
5
2
1
4
3
5
2
1
4
3
5
2
1
4
3
5
2
1
4
3
5
2
1
4
3
5
2
Problemas, da cero
2
5
3
4
1
5
2
3
1
4

- 362 -

II. APNDICES DEL CAPTULO 3

Tabla 13. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema BN.
BASE DE DATOS BN (parte 1)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
13 7 10 36 29 27 33 14 5 24 26 2 20 21 31 3 22 18 9 32
13 7 10 29 27 36 33 5 14 24 26 2 20 21 31 22 18 3 9 28
13 34 33 36 29 10 7 9 20 27 12 5 24 2 21 31 11 26 18 14
Todos cero
13 34 9 33 36 25 24 28 29 11 27 20 5 12 22 4 39 26 30 32
13 7 10 36 29 27 33 14 5 15 24 21 3 18 20 32 26 2 31 17
24 7 19 33 20 9 35 18 5 12 14 3 26 15 38 10 37 4 36 6
13 7 29 36 10 27 5 33 14 2 24 26 21 20 18 15 22 3 31 12
13 9 34 33 29 36 7 10 21 27 2 5 20 24 26 28 31 12 18 22
13 2 29 7 27 10 33 36 5 21 18 20 14 11 24 26 12 15 3 22
13 2 7 10 29 27 36 33 21 5 18 20 14 24 11 15 26 12 31 3
13 2 29 7 27 10 33 36 5 21 18 20 14 11 24 26 12 15 3 22
13 7 29 10 36 27 2 33 21 5 14 18 24 20 15 26 11 31 3 12
13 7 10 36 29 27 2 33 18 5 21 11 14 24 20 15 26 32 31 22
29 36 13 7 10 33 5 34 20 27 9 12 24 21 2 31 11 18 3 26
29 7 10 13 36 33 27 24 26 5 2 34 14 18 21 32 31 20 9 22
19 23 6 16 4 1 30 38 17 37 25 35 15 28 8 39 11 12 22 3
13 29 31 33 12 3 26 7 10 34 36 21 20 24 19 2 27 32 6 28
13 33 34 9 10 7 24 29 20 12 36 5 26 21 2 31 11 28 27 18
3 23 1 31 22 28 37 30 29 5 17 26 39 35 27 32 20 36 12 25
3 23 1 31 22 28 37 30 29 5 17 26 39 35 27 32 20 36 12 25
3 23 1 31 22 28 37 30 29 5 17 26 39 35 27 32 20 36 12 25
3 23 1 31 22 28 37 30 29 5 17 26 39 35 27 32 20 36 12 25
3 23 1 31 22 28 37 30 29 5 17 26 39 35 27 32 20 36 25 12
3 23 1 31 22 28 37 30 29 5 17 26 39 35 27 32 20 36 25 12
10 7 19 13 9 21 34 15 14 8 40 20 6 11 16 24 2 38 5 29
7 10 19 21 15 24 20 29 5 2 28 16 6 1 14 35 36 27 11 31
Matriz Singular, no aplicable
18 35 7 9 10 13 34 1 36 33 26 38 15 22 28 30 32 24 17 25
40 16 6 12 15 11 37 5 21 20 30 32 14 39 23 31 25 1 26 29
Excepciones cero, no aplicable

- 363 -

II. APNDICES DEL CAPTULO 3

Tabla 13. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema BN. (Continuacin).
BASE DE DATOS BN (parte 2)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
39 15 28 34 12 17 40 19 8 1 38 25 4 37 11 35 6 16 23 30
34 12 32 15 39 19 38 40 8 25 17 1 4 35 37 11 6 16 23 30
3 28 32 39 15 25 22 37 4 17 1 38 40 16 19 23 6 8 35 30
Todos cero
16 3 37 18 14 2 19 35 23 7 38 15 10 21 8 1 31 17 40 6
22 16 40 39 9 6 12 1 34 28 8 11 37 38 19 4 25 35 30 23
13 27 11 8 16 1 32 40 17 22 23 34 30 28 39 21 2 25 31 29
32 9 39 34 28 40 11 17 1 8 38 25 19 37 6 16 4 35 23 30
25 3 14 37 32 4 39 11 15 1 6 17 38 16 23 40 19 8 35 30
31 32 9 39 6 40 17 16 28 34 1 19 8 38 37 25 4 35 30 23
22 32 39 40 17 6 9 16 28 34 1 19 37 8 38 25 4 35 23 30
31 32 9 39 6 40 17 16 28 34 1 19 8 38 37 25 4 35 30 23
22 32 17 39 40 6 16 9 28 34 1 19 8 38 37 4 25 35 30 23
12 3 34 17 16 28 39 9 40 1 38 6 25 37 19 4 8 35 30 23
14 28 39 32 25 22 15 37 17 4 1 38 40 16 19 23 6 8 35 30
3 39 40 11 15 12 28 25 8 17 37 35 38 1 30 16 6 4 23 19
9 40 18 34 26 20 2 14 5 31 27 24 33 36 7 10 13 32 21 29
9 15 5 17 37 38 11 25 16 39 22 8 14 1 4 40 18 23 35 30
25 3 22 14 37 19 15 38 32 4 23 39 17 8 1 16 6 40 35 30
19 2 24 6 16 33 11 38 18 8 14 15 21 40 34 13 9 10 7 4
19 2 24 6 16 33 11 38 18 8 14 15 21 40 34 13 9 10 7 4
19 2 24 6 16 33 11 38 18 8 14 15 21 40 34 13 9 10 7 4
19 2 24 6 16 33 18 11 38 8 14 15 21 40 34 13 9 10 7 4
19 2 24 6 16 33 18 11 38 8 14 15 21 40 34 13 9 10 7 4
19 2 24 6 16 33 18 11 38 8 14 15 21 40 34 13 9 10 7 4
35 12 28 36 27 33 17 37 31 1 22 25 30 18 32 26 3 39 23 4
22 30 3 26 25 32 37 23 17 38 4 33 8 39 40 12 9 13 34 18
Matriz Singular, no aplicable
27 37 2 14 20 31 6 12 3 23 5 29 39 8 19 21 4 11 16 40
24 19 28 3 27 4 35 7 10 38 36 17 34 13 9 33 2 22 18 8
Excepciones cero, no aplicable

- 364 -

II. APNDICES DEL CAPTULO 3

Tabla 14. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema BU.
BASE DE DATOS BU

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1
2
3
4
5
6
7
1
7
2
3
6
5
4
1
2
7
3
6
4
5
7
1
6
2
3
4
5
6
1
4
7
5
3
2
6
4
7
5
3
2
1
1
2
7
3
6
5
4
6
5
3
2
7
1
4
1
7
2
3
6
5
4
7
1
6
2
3
4
5
1
2
7
3
6
5
4
1
2
7
3
6
5
4
1
2
7
3
6
5
4
1
2
7
3
6
5
4
1
7
2
3
6
5
4
7
1
2
6
3
4
5
1
2
7
3
6
5
4
4
5
6
2
1
7
3
7
4
1
6
5
3
2
Divisin por cero
1
5
3
6
2
4
7
1
5
3
6
2
4
7
1
5
3
6
2
4
7
1
5
3
4
2
6
7
1
5
3
6
4
2
7
1
5
3
6
4
2
7
2
5
6
3
4
1
7
3
2
1
5
6
4
7
2
1
3
7
5
4
6
3
2
6
7
4
1
5
7
3
1
4
6
2
5
2
7
5
4
1
3
6

- 365 -

II. APNDICES DEL CAPTULO 3

Tabla 15. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema CR.
BASE DE DATOS CR

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
9 7 2 1 4 3 12 13 14 5 6 8 15 16 11 10
9 7 2 1 4 13 3 14 12 5 6 8 15 16 11 10
16 12 9 4 15 14 6 5 8 3 2 7 1 10 13 11
Todos cero
16 12 8 15 14 5 6 4 10 9 3 13 7 1 11 2
9 7 2 1 4 3 12 14 13 5 6 8 15 16 11 10
16 8 1 10 5 7 9 3 2 4 6 15 13 11 12 14
9 2 7 4 12 3 1 8 5 6 14 13 15 11 16 10
16 12 9 14 4 5 6 8 15 3 2 7 1 13 11 10
2 7 9 1 14 13 5 6 4 3 8 12 11 15 16 10
2 9 7 1 14 13 5 6 4 3 8 12 11 15 16 10
2 7 9 1 14 13 5 6 4 3 8 12 11 15 16 10
2 7 9 1 13 14 4 5 6 3 8 12 11 15 16 10
9 6 5 14 1 7 2 4 15 13 11 8 12 3 16 10
9 12 16 4 14 15 6 5 8 3 2 7 1 10 13 11
9 12 2 7 1 4 14 3 5 6 16 15 8 13 11 10
10 11 13 15 5 6 8 16 4 1 14 2 3 7 12 9
12 9 3 16 5 6 4 11 2 13 14 8 15 10 7 1
14 9 16 5 6 15 2 12 7 8 4 1 3 13 11 10
3 1 7 4 6 9 11 15 8 14 13 5 2 16 12 10
3 1 7 4 6 9 11 15 8 14 13 5 2 16 12 10
3 1 7 4 6 9 11 15 8 14 13 5 2 16 12 10
3 1 4 8 6 9 12 15 14 16 2 11 13 5 7 10
3 1 7 4 6 12 9 8 16 14 13 5 2 11 15 10
3 1 7 4 6 12 9 8 16 11 13 14 5 2 15 10
2 13 14 6 5 16 1 8 3 4 15 7 11 9 12 10
2 13 1 14 3 4 8 15 7 5 6 9 16 11 12 10
Matriz singular, no aplicable
16 12 9 13 15 4 11 14 2 5 6 3 1 8 7 10
10 11 9 4 3 12 6 5 16 13 1 15 7 2 8 14
2 10 11 13 14 5 6 7 4 12 15 8 9 16 1 3

- 366 -

II. APNDICES DEL CAPTULO 3

Tabla 16. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema D1.
BASE DE DATOS D1
Ordenacin de las entradas por importancia
Menor importancia
Mayor importancia
Mtodo
1
2
3
4
5
6
7
8
1
7
8
2
3
6
5
4
BL2
1
7
8
2
3
6
5
4
TEKA
1
8
2
3
6
7
5
4
CIB
4
7
5
6
1
2
8
3
TEKE
6
1
4
7
8
2
3
5
TEKC
1
7
8
2
3
6
5
4
DEV
5
1
2
4
3
8
7
6
DER3
1
7
8
2
6
3
5
4
TEKB
1
6
8
3
7
2
5
4
TEK
1
2
7
8
4
5
3
6
BL1
1
8
2
6
3
4
5
7
CLO
1
2
8
7
4
5
3
6
PRI
1
7
8
2
5
4
6
3
SAN
1
7
2
8
3
4
6
5
DER2
1
8
2
3
7
6
5
4
MAO
1
7
8
2
3
5
6
4
UTA
6
4
3
5
2
8
7
1
LEE
1
4
7
6
5
3
8
2
BOW
Divisiones por cero
YOU
1
7
2
4
8
3
5
6
BA 0.5
1
7
2
8
4
3
5
6
BA 0.6
1
7
2
8
4
3
5
6
BA 0.7
1
7
2
8
4
3
5
6
BA 0.8
1
7
2
8
4
3
5
6
BA 0.9
1
7
2
8
4
3
5
6
BA 1
1
7
2
4
8
5
3
6
CHI
1
7
2
3
8
4
6
5
SET
1
2
4
3
5
8
6
GD_DS 7
Problemas, da cero
RLF
5
6
8
4
3
2
7
1
SCH
2
3
4
5
6
7
1
8
FUZ

- 367 -

II. APNDICES DEL CAPTULO 3

Tabla 17. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema GL.
BASE DE DATOS GL

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1
2
3
4
5
6
7
8
9
10 11
1
8
11
4
7
3
9
10
6
5
2
8
11
1
7
4
3
9
10
6
5
2
8
11 10
1
4
3
7
9
6
5
2
1
3
8
4
6
7
9
5
10
2
11
10
8
11
3
9
6
7
2
1
4
5
1
8
4
11
7
3
10
9
5
6
2
2
3
6
5
10
4
1
11
8
9
7
8
11 10
3
9
6
4
1
7
2
5
8
11 10
3
9
6
4
1
7
2
5
1
8
11
7
4
3
9
6
10
5
2
1
8
11
4
7
3
9
10
5
6
2
8
1
11
4
7
3
9
6
10
5
2
1
8
11
4
7
3
9
10
6
5
2
8
1
11
4
7
10
9
6
3
2
5
11
8
1
10
7
4
9
3
6
5
2
8
1
11
3
4
9
7
10
6
5
2
2
5
6
10
4
9
7
8
11
3
1
11
4
1
8
3
6
7
5
9
10
2
Divisiones por cero
1
6
3
4
7
9
5
11
8
10
2
1
6
3
4
7
9
5
11
8
10
2
1
6
3
4
7
5
9
11
8
10
2
1
6
3
4
5
7
9
11
8
10
2
6
1
3
4
5
7
9
11
8
10
2
6
1
3
4
5
7
9
11
8
10
2
11
8
10
1
7
3
4
9
6
5
2
1
11
7
4
3
8
9
6
5
2
10
2
8
11
1
7
4
10
3
9
6
5
Problemas, da cero
2
5
6
10
4
7
11
8
9
3
1
Excepciones cero, no aplicable

- 368 -

II. APNDICES DEL CAPTULO 3

Tabla 18. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema HE.
BASE DE DATOS HE

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1 2
3 4 5 6 7 8 9 10 11 12 13 14
5 1 6 7 8 2 11 12 4 3 9 13 10 14
5 1 7 6 8 2 11 12 4 3 9 14 10 13
5 6 11 1 7 8 13 14 12 2 10 3 9 4
10 13 12 6 5 11 9 1 2 8 3 4 14 7
11 6 12 10 7 1 2 9 8 14 4 3 13 5
5 1 6 7 8 2 11 4 12 3 9 13 10 14
13 2 12 1 3 4 6 5 7 14 8 11 9 10
5 1 6 8 7 2 11 12 3 4 14 10 9 13
7 11 5 6 12 1 8 10 2 13 14 3 9 4
1 5 8 2 7 6 3 14 12 10 4 11 9 13
5 1 8 7 2 6 3 12 4 11 10 14 9 13
1 5 8 2 7 6 3 14 12 10 4 11 9 13
5 1 8 7 2 6 3 4 12 11 10 14 9 13
5 6 2 7 8 1 11 12 3 14 4 13 9 10
5 6 11 1 7 8 14 12 13 2 10 3 4 9
5 1 6 2 11 8 12 7 9 4 10 14 3 13
13 3 10 14 4 7 9 8 12 11 2 6 1 5
5 7 12 11 6 9 1 2 10 4 8 14 3 13
6 7 5 11 8 1 12 2 10 14 3 4 13 9
1 9 2 5 6 12 14 8 7 10 3 13 4 11
1 9 2 5 6 12 14 8 4 7 3 13 10 11
1 9 2 5 6 12 14 4 8 7 3 13 10 11
1 9 2 5 6 12 14 4 8 13 7 3 10 11
1 9 2 5 6 12 14 4 8 13 7 3 10 11
1 9 2 5 6 12 14 4 8 13 3 7 10 11
7 8 6 3 5 1 2 12 10 14 4 9 13 11
7 6 5 1 8 2 9 3 11 12 4 13 14 10
7 8 3 6 13 2 5 1 9 11 12 4 10 14
6 5 2 1 9 11 7 10 12 4 14 8 13 3
14 10 13 4 3 12 11 9 8 2 5 7 6 1
3 7 8 10 14 4 13 12 5 2 11 9 1 6

- 369 -

II. APNDICES DEL CAPTULO 3

Tabla 19. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema LE.
BASE DE DATOS LE

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
18 1 17 19 10 2 7 22 23 20 4 3 6 14 13 8 9 16 15 12 21 5 11
18 1 17 19 10 2 7 22 23 4 20 3 6 14 8 16 15 13 9 12 21 5 11
18 1 17 19 2 10 7 4 22 8 16 23 15 21 20 12 5 6 14 3 13 9 11
Todos cero
18 12 21 6 1 4 11 19 2 3 10 23 8 22 13 14 9 7 17 16 15 20 5
18 1 17 19 10 2 7 22 14 23 20 16 13 15 4 3 8 6 9 21 5 12 11
7 6 23 4 11 17 9 8 21 12 14 13 2 18 1 16 10 22 19 5 3 15 20
18 1 17 19 10 2 7 22 4 23 15 16 20 14 8 13 6 3 5 9 21 11 12
18 1 17 19 10 2 8 4 22 21 23 12 7 16 15 20 3 6 5 14 13 11 9
18 1 17 19 2 7 10 4 22 23 16 15 20 5 8 14 13 6 3 9 11 21 12
18 1 17 19 2 10 7 22 23 4 16 15 20 8 14 5 13 6 3 9 11 21 12
18 1 17 19 2 7 10 4 22 23 16 15 20 5 8 14 13 6 3 9 11 21 12
18 1 17 19 10 2 7 22 23 4 16 15 20 8 14 13 6 3 5 9 21 11 12
18 17 1 19 2 10 7 22 4 23 5 16 15 20 6 14 8 21 13 3 12 9 11
18 1 17 19 10 2 7 4 22 16 8 23 15 21 20 5 6 12 14 3 13 9 11
7 17 18 1 19 22 2 10 15 4 16 23 20 14 13 8 21 5 3 6 12 9 11
11 9 12 6 3 5 8 21 20 13 14 23 16 4 10 15 19 17 18 1 7 2 22
18 1 2 17 10 23 4 7 5 20 19 15 22 14 8 13 6 16 3 9 11 21 12
18 17 10 19 1 2 7 22 8 20 3 4 6 16 23 21 15 5 12 14 11 13 9
20 14 15 12 16 13 23 4 22 10 5 9 2 8 19 3 11 1 7 18 17 21 6
20 14 15 16 12 13 23 4 22 10 5 9 11 3 2 19 8 1 7 18 17 21 6
20 14 15 16 12 13 23 4 22 21 10 5 9 3 2 11 19 8 1 7 17 18 6
20 14 15 16 12 13 23 4 22 21 10 5 9 3 11 2 19 8 1 7 17 18 6
20 14 15 16 12 13 23 4 21 22 10 11 5 3 9 2 19 8 1 7 17 18 6
20 14 15 16 12 13 23 4 21 22 10 11 5 3 9 2 19 8 1 7 17 18 6
17 18 7 3 1 19 2 9 8 12 22 23 5 4 10 16 11 15 14 13 20 21 6
17 1 3 2 19 22 23 9 12 10 4 8 18 7 5 16 15 11 14 21 13 20 6
Matriz singular
17 18 7 2 1 10 15 16 19 22 9 13 12 23 14 4 11 20 21 8 5 6 3
11 5 15 16 21 9 23 13 14 12 8 4 20 3 19 7 6 18 17 2 22 1 10
Excepciones cero, no aplicable

- 370 -

II. APNDICES DEL CAPTULO 3

Tabla 20. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema M1.
BASE DE DATOS M1

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1
2
3
4
5
6
7
4
1
7
5
3
2
6
4
7
1
3
2
5
6
4
7
1
5
3
2
6
3
5
1
7
4
2
6
3
2
4
6
1
7
5
4
1
7
5
3
2
6
6
5
3
1
2
4
7
4
7
5
1
3
2
6
4
7
5
1
3
2
6
4
7
3
2
5
1
6
4
7
5
1
3
2
6
4
7
3
2
5
1
6
4
7
1
3
2
5
6
4
7
5
2
3
1
6
7
4
1
5
3
2
6
7
4
5
1
3
2
6
6
3
2
1
5
4
7
4
7
5
1
6
2
3
4
7
5
3
1
2
6
1
3
2
7
4
5
6
1
3
2
7
4
5
6
1
3
2
7
4
5
6
1
3
2
7
4
5
6
1
3
2
7
4
5
6
1
3
2
7
4
5
6
4
3
2
7
5
1
6
4
3
2
7
5
1
6
1
2
3
5
4
7
6
5
4
7
6
1
3
2
6
2
5
1
4
3
7
2
3
4
5
7
1
6

- 371 -

II. APNDICES DEL CAPTULO 3

Tabla 21. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema M2.
BASE DE DATOS M2

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1
2
3
4
5
6
7
1
6
4
7
5
2
3
1
6
4
7
5
2
3
1
6
5
2
3
4
7
1
3
6
4
7
5
2
6
4
7
5
1
3
2
1
6
5
3
2
4
7
4
7
1
3
2
5
6
1
6
4
5
2
3
7
1
6
2
5
3
4
7
1
6
4
5
2
3
7
1
6
5
4
3
2
7
1
6
4
5
2
3
7
1
6
4
5
3
2
7
6
4
5
7
3
2
1
1
6
5
2
3
4
7
1
6
5
2
3
4
7
7
4
3
2
5
6
1
1
2
6
5
3
4
7
6
3
5
1
2
7
4
6
3
2
4
5
7
1
6
3
2
4
5
7
1
6
3
2
4
5
7
1
6
3
2
4
5
7
1
6
3
2
4
5
7
1
6
3
2
4
5
7
1
4
7
6
2
3
5
1
4
7
6
2
3
5
1
1
6
2
3
5
4
7
1
4
6
7
5
3
2
7
4
3
1
2
6
5
3
4
5
6
7
1
2

- 372 -

II. APNDICES DEL CAPTULO 3

Tabla 22. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema M3.
BASE DE DATOS M3

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1
2
3
4
5
6
7
4
2
7
1
5
6
3
4
2
7
1
5
6
3
4
2
7
5
1
6
3
5
7
2
4
1
6
3
5
6
4
7
1
2
3
2
4
7
1
5
6
3
2
6
3
7
5
4
1
1
7
5
2
4
6
3
1
7
5
2
4
3
6
4
2
5
7
1
3
6
4
2
7
5
1
3
6
4
2
5
7
1
3
6
4
2
7
5
1
3
6
2
7
4
1
5
3
6
4
2
7
5
1
6
3
4
1
5
2
7
6
3
6
3
1
2
4
7
5
4
2
7
1
5
6
3
Divisiones por cero
1
7
2
4
5
3
6
1
7
2
4
5
3
6
1
7
2
4
5
3
6
1
7
2
4
5
3
6
1
7
2
4
5
3
6
1
7
2
4
5
3
6
7
4
2
5
1
3
6
7
4
2
5
1
3
6
1
2
5
4
7
3
6
5
2
4
7
1
6
3
3
6
1
5
2
4
7
2
3
4
5
7
1
6

- 373 -

II. APNDICES DEL CAPTULO 3

Tabla 23. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema PI.
BASE DE DATOS PI

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1
2
3
4
5
6
7
8
9
5
6
1
8
4
2
9
7
3
5
6
1
8
4
2
9
7
3
6
5
8
1
2
9
4
7
3
3
4
7
2
8
9
5
6
1
6
8
2
9
7
4
3
5
1
5
6
8
1
4
2
9
3
7
4
2
9
3
8
7
6
1
5
6
5
1
8
4
2
9
3
7
6
5
8
2
9
1
4
7
3
1
6
5
9
8
2
4
3
7
1
6
5
9
8
2
4
3
7
1
6
5
9
8
2
4
3
7
1
6
5
8
9
2
4
3
7
1
6
9
5
8
2
4
3
7
6
5
8
2
1
9
4
7
3
6
1
5
8
9
4
2
7
3
3
7
8
5
4
9
6
2
1
6
9
5
8
2
4
1
7
3
6
5
8
9
2
1
4
7
3
1
9
5
4
6
8
2
7
3
1
9
5
4
6
8
2
7
3
1
9
5
4
6
8
2
7
3
1
9
5
4
6
8
2
7
3
1
9
5
4
6
8
2
7
3
1
9
5
4
6
8
2
7
3
8
1
4
5
2
6
9
7
3
1
8
4
2
5
6
9
7
3
1
8
4
7
3
2
9
5
6
6
8
5
2
9
4
1
7
3
3
2
9
6
4
7
5
8
1
2
4
5
9
6
7
3
1
8

- 374 -

II. APNDICES DEL CAPTULO 3

Tabla 24. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema VO.
BASE DE DATOS VO

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
1 2 17 11 3 14 9 7 12 6 8 15 16 10 13 4 5
1 11 2 17 3 14 9 6 16 8 7 15 12 13 4 10 5
1 2 17 11 16 8 9 13 6 14 10 15 3 12 4 7 5
4 12 16 10 3 6 15 2 9 17 1 5 13 11 8 7 14
11 8 1 12 5 2 4 15 6 13 9 17 16 10 14 3 7
17 1 2 11 3 14 12 10 9 6 7 13 16 8 15 4 5
4 10 8 2 5 7 16 12 11 9 6 14 3 13 15 1 17
2 11 1 17 14 3 7 6 16 9 12 15 8 13 10 4 5
2 1 11 12 16 14 3 13 17 6 9 8 10 15 7 4 5
1 6 2 14 17 11 9 15 8 16 3 13 7 4 10 12 5
1 2 6 9 14 11 15 8 17 16 3 13 7 10 4 12 5
1 6 2 14 17 11 9 15 8 16 3 13 7 4 10 12 5
1 2 11 17 6 14 9 15 16 8 3 7 13 10 12 4 5
1 2 6 17 11 14 16 9 15 8 13 3 7 12 10 4 5
2 1 17 9 11 8 16 6 13 14 15 10 12 3 4 7 5
1 2 17 6 9 15 11 14 16 8 7 13 3 12 10 4 5
5 4 10 12 7 3 13 16 8 11 14 15 9 6 17 1 2
8 6 11 9 2 16 15 17 13 1 7 3 14 10 4 12 5
17 2 9 11 8 6 15 1 14 13 7 3 16 12 4 10 5
9 6 8 15 10 14 7 1 2 16 17 3 11 12 4 13 5
6 9 8 15 4 7 14 1 10 2 16 3 17 12 11 13 5
6 9 8 15 4 14 7 1 10 2 16 17 12 3 11 13 5
6 9 8 15 4 14 7 10 1 2 16 17 12 3 11 13 5
6 9 15 8 4 14 10 7 1 2 16 17 12 3 11 13 5
6 9 15 8 4 13 14 7 1 2 16 17 3 11 10 12 5
3 11 1 12 17 2 7 16 8 14 15 10 9 13 6 4 5
3 11 1 12 17 2 7 16 14 8 10 15 9 13 6 4 5
1 3 11 12 17 2 16 7 14 8 15 13 10 4 9 6 5
1 10 13 17 16 7 9 8 6 3 14 2 15 11 4 12 5
5 4 13 6 9 10 8 14 15 16 2 7 17 12 1 11 3
Excepciones cero, no aplicable

- 375 -

II. APNDICES DEL CAPTULO 3

Tabla 25. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema WD.
BASE DE DATOS WD (parte 1)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
31 18 27 7 2 19 4 14 5 21 16 20 3 15 13 17
31 27 7 18 16 20 2 10 4 19 6 13 14 5 1 3
31 16 18 20 15 14 27 21 10 7 13 12 6 19 1 2
29 17 9 8 28 19 2 6 4 15 27 5 24 18 31 14
15 21 14 12 19 18 16 20 13 25 17 8 31 9 7 28
18 31 2 4 7 27 14 19 3 15 30 5 21 17 12 23
7 1 11 18 2 4 5 10 29 22 24 27 14 12 31 19
31 16 20 10 6 27 7 1 18 2 13 4 19 3 5 14
31 18 16 20 15 14 21 27 13 7 19 12 10 6 5 2
31 1 16 10 20 6 7 27 2 4 13 18 19 5 3 14
31 1 16 20 27 10 6 2 7 4 18 19 13 5 3 14
31 1 16 10 20 6 7 27 2 4 13 18 19 5 3 14
31 1 16 20 10 27 6 7 2 4 18 13 19 3 5 14
31 16 20 18 15 6 7 10 27 2 19 1 4 13 14 5
27 31 18 16 20 7 14 15 10 21 2 4 6 13 12 19
16 20 27 18 31 1 4 2 6 7 10 19 5 13 21 15
23 26 11 30 8 29 22 9 21 12 25 28 17 24 3 13
6 18 20 19 16 13 7 10 31 27 4 2 21 17 11 5
18 31 6 19 17 21 20 16 7 13 27 10 15 14 1 2
4 22 8 24 7 2 9 28 27 17 5 11 1 26 10 19
4 24 22 8 7 2 9 28 27 17 5 11 1 26 10 19
4 24 22 8 7 2 9 28 27 17 5 11 1 26 10 19
4 24 22 8 7 2 9 28 27 5 17 11 1 26 10 19
4 24 22 8 7 2 9 28 27 5 17 11 26 1 10 19
4 24 22 8 7 2 9 28 27 5 17 11 26 1 10 19
13 16 1 21 20 21 31 6 10 30 18 17 26 19 3 23
1 13 16 11 20 11 6 31 10 26 30 17 23 3 19 18
1 16 13 20 30 10 6 26 11 31 21 23 3 19 17 18
18 31 21 11 17 15 16 19 14 7 20 1 12 27 10 6
29 8 24 9 22 2 4 25 28 27 5 7 26 23 30 31
31 1 20 7 3 8 15 6 2 14 5 27 4 28 9 11

- 376 -

II. APNDICES DEL CAPTULO 3

Tabla 25. Ordenacin de las entradas segn su importancia para los


mtodos ARNMF y ACE. Problema WD. (Continuacin).
BASE DE DATOS WD (parte 2)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
10 28 6 30 12 24 25 26 22 8 11 23 29 9 1
21 15 17 28 30 12 24 26 11 25 8 22 29 23 9
4 5 17 28 25 3 8 11 30 24 9 22 26 29 23
22 12 7 25 16 20 10 13 21 3 23 11 30 1 26
27 5 11 30 22 24 6 26 23 4 10 1 29 3 2
28 16 20 24 26 13 22 10 25 6 8 29 9 11 1
3 15 30 23 25 26 16 20 28 13 6 21 17 9 8
21 15 28 17 30 12 24 11 26 8 25 22 29 23 9
4 17 28 1 25 3 8 30 11 24 9 22 26 23 29
28 15 21 17 30 12 24 11 26 8 25 22 29 23 9
28 21 15 17 30 24 12 11 8 26 25 29 22 9 23
28 15 21 17 30 12 24 11 26 8 25 22 29 23 9
28 21 15 17 30 24 12 11 26 8 25 29 22 23 9
21 12 3 25 17 24 28 8 11 22 9 30 29 26 23
5 1 28 17 3 25 8 30 11 24 9 22 26 29 23
14 24 3 17 28 25 12 22 8 9 29 11 30 26 23
5 19 14 15 20 1 2 4 18 10 16 31 7 6 27
3 1 15 30 14 28 24 26 25 29 8 22 12 9 23
4 11 12 5 3 28 30 25 24 8 26 22 23 9 29
23 14 25 31 6 3 20 12 21 13 30 18 16 15 29
23 14 25 31 6 3 20 12 21 30 13 18 16 15 29
23 14 25 31 6 3 20 12 21 30 13 18 16 15 29
23 14 25 31 3 6 12 20 21 30 13 18 16 15 29
23 14 25 31 3 6 12 20 21 30 13 18 16 15 29
23 14 25 31 3 6 12 20 21 30 13 18 16 15 29
12 14 27 7 15 5 28 2 4 8 9 22 25 24 29
27 7 12 2 28 14 4 5 29 8 9 22 24 25 15
27 7 28 29 8 9 12 14 15 2 4 5 24 22 25
30 28 13 8 5 3 4 2 26 25 24 22 9 23 29
12 3 14 15 19 10 17 6 11 20 18 21 16 13 1
16 30 10 19 13 22 26 23 25 12 21 17 29 18 24

- 377 -

II. APNDICES DEL CAPTULO 3

II.2. Ordenaciones de las entradas para ARNMF&WD


Tabla 26. Ordenacin de las entradas para ARNMF&WD. Problema BN.
BASE DE DATOS BN (parte 1)

Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
13 5 22 27 12 10 7 14 33 20 25 28 29 36 2 34 15 9 24 18
13 5 22 27 12 20 33 14 7 10 25 28 36 29 2 15 34 9 24 18
13 34 9 33 22 5 12 27 20 10 25 7 28 14 29 36 2 24 11 18
Todos cero
13 22 12 14 5 27 10 7 33 25 20 28 11 15 36 29 2 34 24 9
13 23 19 31 37 5 38 29 2 3 8 6 24 28 26 25 21 10 7 27
13 5 22 27 10 14 7 12 33 25 28 20 36 29 2 15 34 9 24 18
13 9 34 33 5 22 12 27 25 29 28 10 20 7 36 14 2 24 11 21
14 13 22 5 12 27 10 7 20 33 25 28 29 36 2 15 34 11 9 24
14 22 5 13 12 27 10 7 20 33 25 28 29 36 2 15 34 11 9 24
14 13 22 5 12 27 10 7 20 33 25 28 29 36 2 15 34 11 9 24
14 13 22 5 12 27 10 20 7 33 25 28 29 36 2 15 34 9 11 24
22 14 12 13 5 10 7 27 28 20 25 33 29 2 34 26 24 9 36 15
18 32 11 15 36 29 5 33 35 12 13 14 22 27 20 9 17 34 2 10
27 14 20 7 10 13 12 5 33 22 2 29 25 24 36 26 28 9 34 18
23 19 8 37 6 38 40 31 3 30 1 16 17 35 39 21 26 24 4 11
19 23 21 38 14 26 8 31 22 2 25 27 9 7 34 13 10 28 3 24

BASE DE DATOS BN (parte 2)

Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
11 26 35 32 21 17 3 8 39 38 40 31 4 6 1 30 16 37 19 23
11 26 32 35 17 21 3 39 8 40 4 38 31 1 6 30 16 37 19 23
26 15 32 21 17 4 31 39 35 3 37 38 1 23 16 8 6 30 40 19
Todos cero
21 18 26 32 17 35 3 8 6 38 39 31 4 40 16 37 1 30 19 23
22 14 12 11 33 15 20 36 34 18 9 17 32 16 4 39 1 40 30 35
11 26 21 32 35 17 3 8 39 38 40 31 4 6 1 16 30 37 19 23
18 26 15 32 4 17 37 3 31 39 35 6 38 1 16 23 8 30 40 19
18 26 21 35 32 17 3 8 39 38 40 6 31 4 1 16 30 37 19 23
18 26 21 35 32 17 3 8 39 38 40 6 31 4 1 16 30 37 19 23
18 26 21 35 32 17 3 8 39 38 40 6 31 4 1 16 30 37 19 23
18 26 21 35 32 17 3 8 39 38 40 31 6 4 1 16 30 37 19 23
21 11 18 32 38 3 35 8 17 6 31 37 39 19 4 40 23 1 16 30
7 25 39 21 28 24 16 40 1 26 4 30 31 3 38 37 6 8 23 19
32 11 21 15 35 8 38 31 17 3 39 40 37 30 4 1 23 16 6 19
28 18 29 34 10 7 15 25 27 32 36 33 5 9 13 14 22 2 12 20
29 33 20 37 5 12 6 36 18 32 15 4 35 11 39 17 1 40 30 16

- 378 -

II. APNDICES DEL CAPTULO 3

Tabla 27. Ordenacin de las entradas para ARNMF&WD. Problema BU.


BASE DE DATOS BU

Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1
2
3
4
5
6
7
1
4
7
5
6
2
3
1
4
7
5
6
2
3
6
4
1
5
7
3
2
2
6
4
5
1
3
7
1
7
2
4
3
6
5
3
4
1
7
2
6
5
1
4
7
5
6
2
3
4
7
6
1
5
3
2
1
7
4
5
6
2
3
1
7
4
5
6
2
3
1
7
4
5
6
2
3
1
7
4
5
6
2
3
1
4
7
2
5
3
6
5
1
7
4
6
2
3
1
7
4
2
5
6
3
1
2
3
4
5
6
7
4
7
1
3
2
5
6

Tabla 28. Ordenacin de las entradas para ARNMF&WD. Problema CR.


BASE DE DATOS CR

Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
7 2 1 9 13 14 12 15 5 6 16 4 3 8 11 10
7 2 1 9 14 13 12 15 6 5 4 16 3 11 8 10
16 2 12 7 9 15 1 14 4 5 6 8 3 13 10 11
Todos cero
7 2 1 9 13 14 12 15 5 6 16 4 3 8 11 10
3 11 14 13 16 6 2 1 7 9 12 8 4 15 5 10
7 2 1 9 13 14 12 15 6 5 16 4 3 8 11 10
16 12 9 2 14 7 15 5 6 4 1 8 13 3 11 10
7 2 1 9 14 13 12 15 5 6 16 4 3 8 11 10
7 2 1 9 14 13 12 15 5 6 16 4 3 8 11 10
7 2 1 9 14 13 12 15 5 6 16 4 3 8 11 10
7 2 1 9 14 13 12 15 5 6 16 4 3 8 11 10
7 2 1 15 5 6 9 14 16 13 12 8 4 3 11 10
5 6 8 2 14 15 9 7 12 16 1 4 11 13 10 3
2 9 7 1 12 14 16 15 5 6 4 3 13 8 11 10
10 11 5 15 6 13 8 3 4 2 14 16 7 12 1 9
1 7 16 15 14 9 2 13 12 4 8 5 6 3 11 10

- 379 -

II. APNDICES DEL CAPTULO 3

Tabla 29. Ordenacin de las entradas para ARNMF&WD. Problema GL.


BASE DE DATOS GL
Ordenacin de las entradas por importancia
Menor importancia
Mayor importancia
Mtodo 1
2
3
4
5
6
7
8
9
10 11
8
7
1
11
4
9
3
10
6
5
2
BL2
7
1
11
9
4
3
10
6
5
2
TEKA 8
8
11
7
1
10
4
9
3
6
5
2
CIB
8
7
9
4
10
3
6
5
1
2
TEKE 11
8
7
1
11
4
9
3
10
6
5
2
DEV
2
6
10
4
8
7
1
11
9
3
5
DER3
7
1
11
9
4
3
10
6
5
2
TEKB 8
8
11 10
7
1
9
3
4
6
5
2
TEK
8
7
1
11
4
9
3
10
6
5
2
BL1
8
7
1
11
4
9
3
10
6
5
2
CLO
8
7
1
11
4
9
3
10
6
5
2
PRI
8
7
1
11
4
9
3
6
10
5
2
SAN
8
7
4
11
1
9
10
6
3
2
5
DER2
8
7
1
11
4
9
10
3
6
5
2
MAO
1
8
7
11
4
9
3
10
6
5
2
UTA
5
2
6
3
9
10
4
1
8
7
11
LEE
Divisin por cero
YOU

Tabla 30. Ordenacin de las entradas para ARNMF&WD. Problema HE.


BASE DE DATOS HE
Ordenacin de las entradas por importancia
Menor importancia
Mayor importancia
Mtodo 1 2
3 4 5 6 7 8 9 10 11 12 13 14
1 8 6 2 5 7 12 11 10 4 3 14 9 13
BL2
TEKA 1 8 2 6 5 7 12 11 10 4 3 14 9 13
1 6 8 2 11 5 7 12 10 13 14 4 3 9
CIB
TEKE 14 12 5 11 1 2 6 8 13 10 7 3 9 4
1 6 8 2 5 7 12 11 10 4 3 14 9 13
DEV
DER3 13 3 4 11 14 12 10 2 1 6 8 5 7 9
TEKB 1 8 6 2 5 7 12 11 10 4 3 14 9 13
1 6 7 8 2 5 11 12 10 14 13 3 4 9
TEK
8 1 2 6 5 7 12 11 10 4 3 14 9 13
BL1
8 1 2 6 5 7 12 11 10 4 3 14 9 13
CLO
8 1 2 6 5 7 12 11 10 4 3 14 9 13
PRI
1 8 6 2 5 7 12 11 10 4 3 14 9 13
SAN
1 8 6 2 5 11 12 7 10 4 3 14 9 13
DER2
MAO 14 3 4 12 11 6 1 8 10 13 2 5 7 9
1 2 8 5 6 11 12 7 9 4 10 3 14 13
UTA
13 14 4 3 10 7 9 11 12 1 6 8 5 2
LEE
4 3 6 12 11 1 10 7 8 14 2 5 13 9
YOU

- 380 -

II. APNDICES DEL CAPTULO 3

Tabla 31. Ordenacin de las entradas para ARNMF&WD. Problema PI.


BASE DE DATOS PI
Ordenacin de las entradas por importancia
Menor importancia
Mayor importancia
Mtodo
1
2
3
4
5
6
7
8
9
6
1
5
9
8
2
4
7
3
BL2
6
5
1
9
8
4
2
7
3
TEKA
6
1
5
9
8
2
4
7
3
CIB
8
5
2
9
6
1
4
7
3
TEKE
1
6
9
5
8
2
4
7
3
DEV
7
3
8
2
1
9
5
6
4
DER3
1
6
5
9
8
2
4
7
3
TEKB
6
5
9
1
8
2
4
7
3
TEK
1
6
5
9
8
2
4
7
3
BL1
1
6
5
9
8
2
4
7
3
CLO
1
6
5
9
8
2
4
7
3
PRI
1
6
5
9
8
2
4
7
3
SAN
6
1
5
9
8
2
4
7
3
DER2
2
9
8
1
6
5
7
3
4
MAO
6
5
1
9
8
4
2
7
3
UTA
3
7
2
4
5
6
8
9
1
LEE
4
5
6
9
1
8
2
7
3
YOU

Tabla 32. Ordenacin de las entradas para ARNMF&WD. Problema VO.


BASE DE DATOS VO

Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
14 15 9 6 11 16 2 1 17 7 8 3 13 10 4 12 5
14 15 9 6 2 11 16 1 7 8 17 3 13 10 4 12 5
14 15 6 16 11 9 1 2 13 3 17 7 8 10 12 4 5
4 8 1 14 16 6 15 9 11 2 7 3 17 13 10 12 5
14 15 6 9 11 16 2 1 17 7 8 3 13 10 4 12 5
9 5 2 8 17 13 11 14 6 15 16 1 3 10 7 4 12
14 15 6 9 11 16 2 1 17 7 8 3 13 10 4 12 5
14 15 6 16 11 2 9 1 13 3 8 7 17 10 12 4 5
14 15 6 9 11 16 2 1 17 7 8 3 13 10 4 12 5
14 15 6 9 11 16 2 1 17 7 8 3 13 10 4 12 5
14 15 6 9 11 16 2 1 17 7 8 3 13 10 4 12 5
14 15 6 9 11 16 2 1 17 7 8 3 13 10 4 12 5
14 15 6 9 11 2 16 17 8 1 7 13 3 10 4 12 5
17 13 8 6 11 2 9 14 15 16 5 1 3 7 10 4 12
6 14 15 16 1 11 2 9 17 8 7 13 3 10 4 12 5
5 10 12 4 3 1 7 16 2 8 9 11 14 15 17 6 13
8 17 9 2 15 11 14 6 13 7 3 1 16 12 10 5 4

- 381 -

II. APNDICES DEL CAPTULO 3

Tabla 33. Ordenacin de las entradas para ARNMF&WD. Problema WD.


BASE DE DATOS WD (parte 1)

Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
7 6 31 10 1 16 20 27 13 19 2 4 18 5 21 14
7 6 31 10 1 16 20 27 13 19 2 4 18 5 21 14
7 16 31 15 20 18 13 14 6 27 21 10 12 19 1 2
30 18 7 2 4 25 5 22 15 27 6 31 14 16 24 12
31 2 27 16 20 4 6 7 10 13 5 1 18 28 19 14
23 26 1 30 9 25 22 29 12 3 24 8 15 10 14 28
7 6 31 10 1 16 20 27 13 19 2 4 18 5 21 14
7 31 16 18 20 15 13 6 27 21 14 10 19 1 12 2
7 6 31 10 1 16 20 27 13 19 2 4 18 5 21 14
7 6 31 10 1 16 20 27 13 19 2 4 18 5 21 14
7 6 31 10 1 16 20 27 13 19 2 4 18 5 21 14
7 6 31 10 1 16 20 27 13 19 2 4 18 5 21 14
7 31 15 20 16 6 10 1 2 4 14 27 12 13 5 19
7 31 16 27 20 18 6 10 13 1 15 19 14 21 2 4
16 6 20 7 18 19 27 31 13 10 1 2 4 21 5 15
9 23 29 22 25 8 26 24 12 30 11 3 28 17 15 14
23 26 29 22 30 9 3 24 8 25 28 4 1 2 5 12

BASE DE DATOS WD (parte 2)

Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

Ordenacin de las entradas por importancia


Menor importancia
Mayor importancia
17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
28 15 3 17 30 12 24 26 11 8 25 22 29 9 23
28 15 3 17 30 12 26 24 11 8 25 22 29 9 23
4 5 17 28 25 8 3 11 30 24 22 9 26 29 23
19 21 10 13 20 17 28 9 1 8 3 11 29 26 23
15 3 21 24 8 12 17 25 22 29 30 11 26 9 23
5 27 4 31 2 16 20 6 13 18 19 21 17 11 7
28 15 3 17 30 12 24 26 11 8 25 22 29 9 23
4 5 17 28 25 8 3 30 11 24 22 9 26 29 23
28 15 3 17 30 12 24 26 11 8 25 22 29 9 23
28 15 3 17 30 12 24 26 11 8 25 22 29 9 23
28 15 3 17 30 12 24 26 11 8 25 22 29 9 23
28 15 3 17 30 12 24 26 11 8 25 22 29 9 23
25 18 3 24 28 21 8 22 17 9 30 26 11 29 23
5 12 28 17 25 3 8 30 24 11 9 22 26 29 23
14 28 17 3 24 12 25 22 11 8 30 29 9 26 23
5 21 4 2 18 1 27 10 13 16 20 19 31 7 6
10 14 27 31 15 7 18 16 20 13 6 21 19 17 11

- 382 -

II. APNDICES DEL CAPTULO 3

II.3. Eficiencias para los mtodos ARNMF y ACE


Tabla 34. Eficiencias para los mtodos ARNMF y ACE.
Problema AB.
BASE DE DATOS AB

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

1
2
513
532
513
532
523
532
58.70.8 552
523
532
513
532
58.70.8 532
513
532
523
542
513
532
513
532
513
532
513
532
523
532
513
532
513
532
482
502
523
502
------512 56.71.3
512 56.71.3
512
532
512
532
512
532
512
532
513
552
513
482
513
552
------58.70.8 532
58.70.8 57.20.9

3
483
483
483
57.91.0
542
503
523
483
512
483
60.10.4
503
483
523
483
483
543
512
---483
483
483
483
483
483
57.91.0
492
57.91.0
---58.70.8
542

4
51.31.8
51.31.8
52.71.8
57.50.8
553
51.31.8
542
51.31.8
513
532
573
532
532
542
57.20.7
532
492
50.91.9
---522
522
522
522
522
522
57.60.7
532
512
---482
542

- 383 -

5
532
532
532
58.10.7
502
532
542
532
532
522
522
522
53.71.5
522
532
522
462
493
---542
542
542
542
532
542
50.01.9
522
533
---493
54.71.9

6
503
503
503
53.91.8
503
503
522
503
503
522
522
522
503
57.40.8
503
57.40.8
453
473
---55.40.3
55.40.3
55.40.3
55.40.3
55.40.3
55.40.3
552
523
58.90.6
---512
512

7
55.30.5
55.30.5
492
503
55.30.5
55.30.5
512
55.30.5
492
55.51.7
55.51.7
55.51.7
55.30.5
55.30.5
492
55.51.7
442
493
---55.40.4
55.40.4
55.40.4
55.40.4
453
453
522
51.21.9
493
---512
462

8
50.11.7
50.01.7
50.01.7
463
50.01.7
50.11.7
52.01.9
463
51.01.8
463
463
463
463
50.11.7
51.01.8
463
462
51.01.8
---463
463
463
463
463
463
463
413
51.01.8
---443
443

II. APNDICES DEL CAPTULO 3

Tabla 35. Eficiencias para los mtodos ARNMF y ACE.


Problema BL.
BASE DE DATOS BL

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

1
482
482
492
533
503
492
503
503
503
492
492
492
482
533
492
493
533
493
---493
493
493
493
493
493
493
493
493
---473
533

2
493
493
543
533
492
543
583
45.91.6
492
543
543
543
543
503
543
563
533
503
---543
543
543
543
543
543
543
543
543
---563
563

- 384 -

3
482
492
492
502
502
492
553
513
513
513
492
513
502
533
533
492
542
502
---513
513
513
513
513
513
513
513
513
---543
543

4
47.80.5
533
533
552
542
533
533
533
533
533
533
533
47.80.5
542
533
533
47.80.5
553
---542
542
542
542
542
542
542
542
542
---47.80.5
553

II. APNDICES DEL CAPTULO 3

Tabla 36. Eficiencias para los mtodos ARNMF y ACE.


Problema BN.
BASE DE DATOS BN (parte 1)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

1
65.11.0
65.11.0
65.11.0
---65.11.0
65.11.0
64.10.7
65.11.0
65.11.0
65.11.0
65.11.0
65.11.0
65.11.0
65.11.0
64.91.1
64.91.1
63.20.6
65.11.0
65.11.0
65.50.7
65.50.7
65.50.7
65.50.7
65.50.7
65.50.7
63.70.3
64.91.0
---63.91.0
65.70.9
----

2
62.90.3
62.90.3
66.40.9
---66.40.8
62.90.3
64.00.8
62.90.3
64.40.9
63.90.5
63.90.5
63.90.5
62.90.3
62.90.3
64.40.7
64.30.7
71.70.9
64.80.8
65.60.8
72.90.4
72.90.4
72.90.4
72.90.4
72.90.4
72.90.4
66.21.0
66.21.0
---64.00.7
66.30.7
----

3
64.60.6
64.60.6
64.90.8
---65.00.6
64.60.6
64.01.0
63.10.8
65.10.6
64.90.4
65.50.6
64.90.4
63.10.8
64.60.6
64.00.6
65.70.7
700.7
64.61.1
64.90.8
72.00.8
72.00.8
72.00.8
72.00.8
72.00.8
72.00.8
65.30.9
65.30.9
---64.40.7
66.20.8
----

4
63.81.1
63.61.3
66.90.9
---66.00.8
63.81.1
62.50.7
65.60.7
66.00.8
65.60.6
63.30.6
65.60.6
63.61.3
63.81.1
65.60.7
63.61.3
71.50.3
65.10.8
66.00.8
74.10.5
74.10.5
74.10.5
74.10.5
74.10.5
74.10.5
62.11.1
62.50.7
---63.60.7
65.40.4
----

- 385 -

5
65.11.1
64.60.4
64.50.5
---66.61.0
65.11.1
65.40.6
65.11.1
66.11.0
65.20.9
64.70.7
65.20.9
65.01.1
65.11.1
65.01.1
65.11.1
68.50.9
64.40.7
66.31.0
72.10.9
72.10.9
72.10.9
72.10.9
72.10.9
72.10.9
64.00.8
65.21.0
---64.00.8
66.00.6
----

6
64.80.8
64.80.8
64.10.7
---67.00.9
64.80.8
66.00.9
64.80.8
64.51.1
64.51.0
64.51.0
64.51.0
64.80.8
64.80.8
64.80.5
64.80.5
68.40.8
64.50.3
64.40.8
72.40.8
72.40.8
72.40.8
72.40.8
72.40.8
72.40.8
65.30.9
65.21.0
---63.70.6
64.90.7
----

7
63.81.1
63.81.1
64.00.7
---67.50.9
63.81.1
66.00.6
63.41.2
64.80.6
64.00.8
65.20.6
64.00.8
65.20.6
62.30.4
66.21.2
63.81.1
70.91.1
63.90.6
66.30.7
73.81.0
73.81.0
73.81.0
73.81.0
73.81.0
73.81.0
64.30.7
66.41.4
---63.70.4
63.01.2
----

8
64.10.7
64.10.5
66.80.9
---63.30.7
64.10.7
64.50.7
64.10.5
66.80.9
63.31.2
63.31.2
63.31.2
63.31.2
63.31.2
64.60.6
64.50.8
70.80.9
63.30.5
65.30.4
74.71.1
74.71.1
74.71.1
74.71.1
74.71.1
74.71.1
66.40.6
65.40.8
---67.91.6
62.80.6
----

II. APNDICES DEL CAPTULO 3

Tabla 36. Eficiencias para los mtodos ARNMF y ACE.


Problema BN. (Continuacin).
BASE DE DATOS BN (parte 2)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

9
65.10.8
65.10.8
65.10.5
---66.41.2
65.10.8
65.51.1
65.10.8
66.60.7
65.61.0
62.50.7
65.61.0
62.50.7
61.80.7
65.40.6
64.60.7
68.70.8
65.60.7
66.20.8
73.30.9
73.30.9
73.30.9
73.30.9
73.30.9
73.30.9
65.51.1
66.10.6
---68.91.1
64.10.6
----

10
65.30.9
65.30.9
65.90.7
---64.00.7
67.41.0
62.81.1
68.00.6
64.60.8
66.01.2
66.01.2
66.01.2
66.01.2
63.60.9
66.00.8
62.60.5
67.00.8
64.30.6
67.41.2
74.00.8
74.00.8
74.00.8
74.00.8
74.00.8
74.00.8
67.61.4
66.40.6
---67.20.9
63.70.7
----

11
68.01.2
68.01.2
66.00.6
---65.50.7
67.00.9
67.71.1
66.11.0
63.30.6
62.10.6
62.10.6
62.10.6
64.70.4
62.10.6
64.10.7
66.01.1
68.71.1
64.30.6
66.00.9
71.40.9
71.40.9
71.40.9
71.40.9
71.40.9
71.40.9
66.20.7
65.20.7
---67.51.0
60.31.4
----

12
65.41.0
65.41.0
64.71.0
---66.70.7
65.70.6
65.41.1
65.41.0
63.60.5
63.10.3
63.10.3
63.10.3
64.30.6
64.90.4
64.71.0
61.30.7
67.11.3
66.31.2
64.80.9
76.20.9
76.20.9
76.20.9
76.20.9
76.20.9
76.20.9
66.71.0
65.10.7
---69.81.5
60.30.9
----

- 386 -

13
64.71.0
64.71.0
67.10.9
---66.30.7
67.10.8
64.61.1
64.10.7
65.61.1
64.70.7
64.70.7
64.70.7
64.41.0
67.00.5
67.10.9
66.91.1
68.30.8
64.30.7
67.61.2
76.70.5
76.70.5
76.70.5
76.70.5
76.70.5
76.70.5
70.51.2
64.50.5
---67.71.6
61.30.9
----

14
64.30.7
64.30.7
66.20.9
---66.20.5
64.91.2
67.11.0
64.20.7
65.10.8
66.60.5
64.40.9
66.60.5
64.40.9
65.50.8
64.30.8
64.40.8
68.20.5
64.90.6
65.50.9
75.90.9
75.90.9
75.90.9
75.90.9
75.90.9
75.90.9
69.90.7
63.30.4
---67.61.1
62.01.0
----

15
65.70.4
65.70.4
65.30.7
---66.80.9
65.50.8
67.01.0
63.90.7
64.11.1
65.41.1
65.41.1
65.41.1
65.20.9
65.41.1
65.30.7
63.10.6
67.81.4
63.10.3
65.20.4
75.51.0
75.51.0
75.51.0
75.51.0
75.51.0
75.51.0
66.90.4
64.10.7
---65.31.3
63.21.1
----

16
66.00.8
66.00.4
66.10.7
---66.90.7
67.01.2
63.30.8
67.20.8
65.50.9
66.81.0
65.61.5
66.81.0
67.20.8
65.61.5
66.10.7
64.40.4
69.21.4
62.40.5
65.20.5
76.61.2
76.61.2
76.61.2
76.61.2
76.61.2
76.61.2
66.90.6
66.80.6
---68.70.7
60.31.3
----

II. APNDICES DEL CAPTULO 3

Tabla 36. Eficiencias para los mtodos ARNMF y ACE.


Problema BN. (Continuacin).
BASE DE DATOS BN (parte 3)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

17
67.10.5
66.30.9
66.80.5
---66.31.0
68.31.0
66.71.0
66.30.8
64.90.8
65.90.4
66.21.1
65.90.4
66.21.1
66.21.1
66.80.5
65.20.6
69.41.1
63.40.6
66.70.6
76.10.8
76.10.8
76.10.8
76.10.8
76.10.8
76.10.8
66.31.2
68.21.1
---68.90.6
61.61.8
----

18
67.00.6
67.00.6
66.00.6
---68.70.8
67.10.5
67.00.7
66.71.0
65.10.5
65.90.8
65.90.8
65.90.8
65.31.1
67.10.8
65.10.4
64.50.4
64.50.8
60.60.6
66.11.3
75.41.4
75.41.4
75.41.4
75.41.4
75.41.4
75.41.4
68.70.9
64.90.7
---70.60.7
67.61.4
----

19
66.60.4
66.60.4
65.70.8
---67.50.7
66.31.1
68.30.8
66.91.0
63.40.9
66.60.7
64.50.9
66.60.7
67.40.9
66.61.3
65.50.3
66.10.5
64.40.7
60.70.2
67.40.7
74.10.9
74.10.9
74.10.9
74.10.9
76.80.6
76.80.6
68.20.5
65.30.7
---69.70.9
67.80.7
----

20
65.60.5
65.50.9
65.60.4
---68.20.7
67.10.8
65.20.7
65.21.0
64.70.9
67.10.8
65.50.8
67.10.8
65.50.8
65.71.1
64.10.6
66.70.6
63.60.8
61.40.7
65.10.6
73.61.2
73.61.2
73.61.2
73.61.2
73.61.2
73.61.2
68.50.5
65.20.9
---69.70.5
65.61.1
----

- 387 -

21
66.00.8
64.50.7
66.20.8
---65.90.6
67.10.8
63.91.1
67.61.2
65.10.5
65.50.9
65.50.9
65.50.9
65.50.9
66.71.2
66.20.8
67.90.4
63.20.6
61.40.3
66.90.9
73.41.0
73.41.0
73.41.0
73.41.0
73.41.0
73.41.0
69.70.9
63.81.3
---67.91.0
68.21.0
----

22
67.90.9
65.10.4
64.50.4
---64.40.7
62.80.6
61.11.1
66.21.2
65.10.5
66.61.2
66.61.2
66.61.2
66.61.2
66.61.2
64.50.4
66.80.7
61.80.3
59.31.2
66.80.6
70.21.0
70.21.0
70.21.0
70.21.0
70.21.0
70.21.0
68.20.4
66.10.8
---72.80.8
66.80.9
----

23
66.60.6
65.10.5
64.10.4
---66.20.8
62.80.4
59.50.5
63.61.1
65.10.4
65.30.9
65.20.9
65.30.9
64.01.2
64.30.7
62.40.5
68.31.2
59.80.8
59.91.4
65.60.5
70.71.1
70.71.1
70.71.1
70.71.1
70.71.1
70.71.1
67.50.3
63.30.9
---72.30.8
67.61.1
----

24
63.61.0
65.91.2
61.30.5
---65.20.2
61.60.5
61.30.7
64.40.7
65.50.6
64.41.2
63.81.0
64.41.2
66.31.4
64.31.2
61.30.5
67.70.7
61.01.1
57.80.4
66.20.3
69.01.6
69.01.6
69.01.6
69.01.6
69.01.6
69.01.6
67.80.5
62.50.9
---70.50.5
70.50.7
----

II. APNDICES DEL CAPTULO 3

Tabla 36. Eficiencias para los mtodos ARNMF y ACE.


Problema BN. (Continuacin).
BASE DE DATOS BN (parte 4)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

25
65.31.2
65.31.2
62.90.5
---65.31.0
62.80.6
61.30.8
65.31.2
65.50.3
60.50.8
66.41.3
60.50.8
66.41.3
62.90.6
63.00.4
65.60.9
60.10.9
59.80.8
65.60.7
67.40.8
67.40.8
67.40.8
67.40.8
67.40.8
67.40.8
68.60.8
63.40.6
---70.90.7
67.80.8
----

26
62.80.8
62.40.9
65.91.2
---63.60.6
63.40.8
61.10.6
63.30.5
68.50.8
59.41.3
59.20.2
59.41.3
59.20.2
64.80.8
64.70.8
65.41.4
61.10.6
63.40.8
61.70.7
67.10.5
67.10.5
67.10.5
67.10.5
67.10.5
67.10.5
67.10.6
63.21.0
---73.10.7
66.81.1
----

27
61.51.0
64.30.7
66.11.0
---62.50.8
63.80.6
62.60.8
64.41.0
68.00.7
60.21.0
60.21.0
60.21.0
60.50.4
62.30.5
66.11.0
63.40.7
64.31.0
63.40.5
61.00.4
64.51.2
64.51.2
64.51.2
67.10.6
67.10.6
67.10.6
69.30.7
67.70.7
---69.70.7
67.40.9
----

28
59.31.1
63.00.5
64.90.5
---63.30.9
63.70.7
61.51.0
61.41.3
66.10.6
61.30.9
61.30.9
61.30.9
61.30.9
62.80.8
64.90.5
66.81.0
61.41.1
63.81.0
65.60.6
66.71.1
66.71.1
66.71.1
65.21.4
65.21.4
65.21.4
70.70.7
68.40.8
---68.50.7
67.11.1
----

- 388 -

29
63.90.8
64.00.5
67.70.7
---65.60.9
63.70.5
60.11.3
62.61.1
67.70.7
61.80.4
61.80.4
61.80.4
61.80.4
61.10.4
65.20.7
68.60.7
62.51.2
65.90.7
64.80.8
67.90.8
67.90.8
67.90.8
67.90.8
67.90.8
67.90.8
67.10.5
633
---67.00.7
67.90.7
----

30
63.40.5
62.90.7
64.41.1
---64.90.7
63.80.8
60.60.6
67.41.2
67.91.1
62.20.6
62.20.6
62.20.6
62.20.6
63.60.8
64.41.1
67.70.8
59.71.0
64.70.8
63.60.7
68.00.9
68.00.9
68.00.9
68.00.9
68.00.9
68.00.9
67.20.6
68.50.4
---70.90.8
65.70.6
----

31
63.20.8
63.81.0
71.50.9
---66.20.7
67.51.0
63.40.5
68.20.9
64.40.7
63.20.3
63.20.3
63.20.3
63.20.3
66.80.7
71.50.9
66.40.5
64.30.6
64.70.6
69.00.7
68.41.2
68.41.2
68.41.2
68.41.2
68.41.2
68.41.2
69.10.4
67.70.4
---70.31.2
66.40.9
----

32
62.00.4
62.00.4
73.70.5
---66.70.8
65.40.9
63.80.6
69.00.7
67.00.8
61.60.7
61.60.7
61.60.7
61.60.7
64.80.4
73.70.5
66.00.6
67.00.4
66.20.4
70.30.4
70.30.4
70.30.4
70.30.4
70.30.4
70.30.4
70.30.4
68.90.5
66.90.5
---69.10.7
66.80.4
----

II. APNDICES DEL CAPTULO 3

Tabla 36. Eficiencias para los mtodos ARNMF y ACE.


Problema BN. (Continuacin).
BASE DE DATOS BN (parte 5)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

33
62.11.2
62.11.2
71.00.8
---65.30.4
64.60.7
63.81.1
62.90.9
67.10.8
63.81.3
59.70.7
63.81.3
63.81.3
64.80.6
71.00.8
70.50.6
67.50.5
64.90.5
69.50.5
70.30.8
70.30.8
70.30.8
70.30.4
70.30.8
70.30.8
67.50.6
67.20.8
---70.70.6
66.20.3
----

34
69.70.8
63.21.1
67.80.5
---69.50.8
69.40.5
64.90.6
69.00.6
66.40.2
62.00.7
63.80.3
62.00.7
62.00.7
67.20.5
67.80.5
73.10.9
67.80.6
66.00.5
70.91.1
70.10.8
70.10.8
70.10.8
70.10.8
70.10.8
70.10.8
66.60.3
66.70
---68.70.7
66.70
----

35
70.60.7
69.81.3
61.41.4
---69.40.6
65.90.2
66.91.0
62.31.1
64.60.6
65.90.2
65.90.2
65.90.2
65.90.2
62.50.4
61.41.4
66.30.6
67.70.7
66.30.5
73.61.0
70.90.6
70.90.6
70.90.6
70.90.6
70.90.6
70.90.6
67.00.6
68.60.3
---66.21.0
66.90.2
----

36
69.41.8
69.41.8
62.21.0
---75.30.9
64.11.2
68.00.4
64.90.3
65.50.5
64.90.3
64.90.3
64.90.3
64.11.2
60.80.8
62.21.0
73.11.0
68.30.7
64.50.7
70.20.6
69.90.7
69.90.7
69.90.7
69.90.7
69.90.7
69.90.7
66.90.3
66.70
---68.20.9
66.30.2
----

- 389 -

37
38
61.50.9 61.30.8
61.50.9 61.30.8
60.50.3 61.10.7
------71.80.6 66.70
65.30.5 61.30.8
68.90.3 68.40.4
65.30.5 61.30.8
60.50.3 60.50.4
65.30.5 61.30.8
65.30.5 61.30.8
65.30.5 61.30.8
65.30.5 61.30.8
65.30.5 61.30.8
60.50.3 60.50.4
61.81.1 65.51.0
67.70.6 66.90.2
65.30.5 60.50.4
62.10.7 60.50.4
71.10.6 71.30.8
71.10.6 71.30.8
71.10.6 71.30.8
71.10.6 71.30.8
71.10.6 71.30.8
71.10.6 71.30.8
63.31.2 60.10.9
66.40.2 66.550.11
------67.40.5 66.70
65.60.3 66.30.2
-------

39
64.60.5
64.60.5
64.60.5
---66.70
64.40.6
66.70
64.60.5
64.60.5
64.40.6
64.60.5
64.40.6
64.40.6
64.40.6
64.60.5
66.70
66.70
64.60.5
64.60.5
700.9
700.9
700.9
700.9
700.9
700.9
67.10.5
66.40.4
---66.70
66.70
----

II. APNDICES DEL CAPTULO 3

Tabla 37. Eficiencias para los mtodos ARNMF y ACE.


Problema BU.
BASE DE DATOS BU

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

1
672
672
69.10.3
63.51.7
63.51.7
672
63.51.7
672
69.10.3
672
672
672
672
672
69.10.3
672
60.11.3
69.10.3
---672
672
672
672
672
672
68.30.4
692
68.30.4
692
69.10.3
68.30.4

2
652
69.50.2
652
63.11.2
54.90.5
69.50.2
52.31.2
652
652
69.50.2
69.50.2
69.50.2
69.50.2
652
652
69.50.2
54.10.6
56.30.8
---60.41.3
60.41.3
60.41.3
60.41.3
60.41.3
60.41.3
57.51.4
70.00.7
69.50.2
70.00.7
68.70.5
68.80.7

3
67.41.6
67.41.6
62.61.2
55.00.5
54.50.5
67.41.6
53.81.0
67.41.6
62.61.2
67.41.6
67.41.6
67.41.6
67.41.6
67.41.6
67.41.6
67.41.6
52.00.5
55.70.6
---60.41.5
60.41.5
60.41.5
60.41.5
60.41.5
60..41.5
51.80.9
662
662
64.30.6
67.11.5
58.71.2

- 390 -

4
642
642
59.51.5
53.90.5
50.60.4
642
53.51.3
642
59.51.5
642
642
642
642
642
59.51.5
642
51.40.8
53.90.5
---53.20.6
53.20.6
53.20.6
57.30.7
57.30.7
57.30.7
53.51.3
60.61.3
642
64.30.8
57.91.4
53.61.0

5
60.81.2
60.81.2
60.81.2
50.400.16
55.30.7
60.81.2
500.9
60.81.2
60.81.2
60.81.2
60.81.2
60.81.2
60.81.2
60.81.2
60.81.2
60.81.2
51.30.5
50.400.16
---53.10.9
53.10.9
53.10.9
57.00.8
53.800.13
53.10.9
55.50.9
53.10.9
62.50.8
54.90.4
54.10.3
53.50.6

6
52.70.7
55.50.5
55.50.5
540
53.60.2
52.70.7
52.70.7
52.70.7
55.50.5
52.70.7
52.70.7
52.70.7
52.70.7
52.70.7
55.50.5
52.70.7
50.50.6
540
---54.30.4
54.30.4
54.30.4
54.30.4
54.30.4
54.30.4
54.30.4
54.30.4
57.60.8
57.60.8
55.50.5
55.50.5

II. APNDICES DEL CAPTULO 3

Tabla 38. Eficiencias para los mtodos ARNMF y ACE.


Problema CR.
BASE DE DATOS CR (parte 1)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

1
823
823
833
---833
823
833
823
833
86.21.7
86.21.7
86.21.7
86.21.7
823
823
823
772
812
792
832
832
832
832
832
832
86.21.7
86.21.7
---833
772
86.21.7

2
833
833
86.41.7
---86.41.7
833
88.00.3
853
86.41.7
813
853
813
813
823
88.00.4
88.00.4
73.51.8
88.00.4
783
88.70.3
88.70.3
88.70.3
88.70.3
88.70.3
88.70.3
832
832
---86.41.7
73.41.8
772

3
4
87.50.3 88.20.3
87.50.3 88.20.3
833 87.700.17
------822
812
87.50.3 88.20.3
85.81.6 79.20.2
87.50.3
803
823
822
87.50.3 88.20.3
87.50.3 88.20.3
87.50.3 88.20.3
87.50.3 88.20.3
84.01.8 87.50.3
833 87.700.17
87.90.3 87.50.4
713
76.00.4
842
842
88.40.4 88.20.2
812
87.41.4
812
87.41.4
812
87.41.4
812
913
812
813
812
813
88.10.3 86.31.6
88.80.5 88.70.2
------823
832
72.71.8 75.10.7
703
77.50.4

- 391 -

5
813
813
822
---783
823
78.70.5
84.61.8
85.91.7
852
852
852
833
842
85.91.7
852
722
85.21.9
88.30.3
852
852
852
842
842
842
88.30.4
86.71.7
---813
682
76.50.9

6
842
88.800.13
823
---832
843
773
89.050.16
86.71.7
86.51.7
86.51.7
86.51.7
86.51.7
86.41.7
823
832
742
843
802
88.50.2
88.50.2
88.50.2
87.80.5
86.61.7
86.71.7
832
86.71.7
---822
62.31.0
76.90.8

7
82.01.8
89.30.2
87.20.3
---85.40.3
82.01.8
77.50.3
82.01.8
822
86.31.9
86.31.9
86.31.9
833
832
87.20.3
87.80.4
76.01.1
822
86.60.4
832
832
832
822
822
822
823
842
---852
62.61.5
73.81.9

8
89.40.2
88.30.4
773
---823
852
76.80.2
88.70.2
823
832
832
832
833
86.11.6
773
852
742
88.60.2
86.40.2
833
833
833
822
823
823
87.750.15
88.550.05
---85.61.5
64.71.3
77.91.2

II. APNDICES DEL CAPTULO 3

Tabla 38. Eficiencias para los mtodos ARNMF y ACE.


Problema CR. (Continuacin).
BASE DE DATOS CR (parte 2)

Mtodo
9
10
11
BL2
852
842
842
TEKA
852
842
842
CIB
84.70.2 86.20.4 83.11.8
---------TEKE
TEKC
762
74.90.4 76.450.05
DEV
833
842
842
DER3
742
713
75.50.2
TEKB 88.30.2
813
87.300.13
TEK
84.11.1
802
86.00.4
BL1
843
842
87.40.3
CLO
843
842
87.40.3
PRI
843
842
87.40.3
SAN
843
843
87.40.3
DER2
832
832
88.250.08
MAO
84.11.1
802
86.00.4
UTA
832 88.300.13 86.21.7
LEE
75.20.8
712
752
BOW 88.600.19
813
793
YOU
812
86.20.4
823
BA 0.5 84.51.9 86.01.6
832
BA 0.6 84.51.9 86.01.6
832
BA 0.7 84.51.9 86.01.6
832
BA 0.8
832
833
833
BA 0.9
833
783
86.91.5
BA 1
833
772
87.150.07
CHI
823
843
793
SET
842
86.81.7
832
---------GD_DS
RLF
88.350.10 852
88.050.05
SCH
61.01.2 61.01.4 59.61.3
FUZ
762
69.61.7 68.41.6

- 392 -

12
822
822
86.90.4
---742
822
723
822
833
822
822
822
822
880
833
852
76.01.3
832
832
852
852
852
812
87.50.3
812
842
852
---802
58.40.8
652

13
14
15
823
85.81.5
880
823
85.81.5
880
813
76.50
723
---------76.50
722
550
823
85.81.5
880
75.70.2 74.650.11
550
823
852
880
813
85.81.5
880
832
852
880
832
852
880
832
852
880
832
852
880
880
852
880
813
76.50
723
813
85.81.5
880
722
723
68.30.5
880
54.70.4 53.00.5
813
85.81.5
880
880
842
880
880
842
880
880
842
880
880
852
880
87.400.16
813
880
880
813
880
833
842
880
880
842
880
---------83.71.4
852
880
552
562
550
62.61.0 59.70.7 61.10.7

II. APNDICES DEL CAPTULO 3

Tabla 39. Eficiencias para los mtodos ARNMF y ACE.


Problema D1.
BASE DE DATOS D1

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

1
70.21.7
70.21.7
70.21.7
61.60.4
59.80.2
70.21.7
65.40.2
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
59.80.2
70.21.7
---70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
69.91.4
---65.40.2
592

2
3
4
5
6
7
70.70.5 68.40.4 54.30.4 40.21.6 23.40.2 16.20.8
70.70.5 68.40.4 54.30.4 40.21.6 23.40.2 16.20.8
68.41.4 55.860.15
443
40.21.6 23.40.2 16.20.8
60.970.10 54.000.06
372
382
32.50.3 19.20.2
56.01.9 52.90.2 45.40.2 44.390.04 32.050
16.30
70.70.5 68.40.4 54.30.4 40.21.6 23.40.2 16.20.8
65.21.0 55.40.9 46.330.12 32.170.11 24.970.08 17.640.07
70.80.5 68.40.4 54.30.4 36.810.18 23.40.2 16.20.8
56.01.9
542
39.81.8 38.50.2 23.40.2 16.20.8
602
60.00.6 54.30.4 42.00.5 32.850 17.640.07
68.41.4 55.880.15 41.91.4 30.00.2 22.31.3
17.60
602
55.880.15 54.30.4 42.90.5 32.850 17.640.07
70.80.5 68.40.4 54.30.4 44.110.14 32.850 19.20.2
70.70.5 60.00.6 54.30.4 40.21.6 30.440.05 16.30
68.41.4 55.880.15 47.80.3 40.21.6 23.40.2 16.20.8
70.70.5 68.40.4 54.30.4 40.21.6 31.460.14 16.70.8
53.20.4
442
322 26.390.08 16.80.9 9.900.10
62.10.3 59.51.0 45.40.2
382
27.230.12 17.950
------------------70.80.5 60.00.6 51.020.14 42.90.5 30.450.05 17.640.07
70.70.5 60.00.6 54.30.4 42.90.5 30.450.05 17.640.07
70.70.5 60.00.6 54.30.4 42.90.5 30.450.05 17.640.07
70.70.5 60.00.6 54.30.4 42.90.5 30.450.05 17.640.07
70.70.5 60.00.6 54.30.4 42.90.5 30.450.05 17.640.07
70.70.5 60.00.6 54.30.4 42.90.5 30.450.05 17.640.07
70.70.5 60.00.6 51.020.14 42.90.5 32.850 17.640.07
70.70.5 60.00.6 47.91.3 40.21.6 30.450.05 16.30
70.70.5 60.00.6 51.020.14 37.900.02
250
17.640.07
------------------53.10.2 43.61.6 39.210.03 25.730.05 16.80.9 17.640.07
50.01.9 44.160.11 32.390.14 26.40.08 18.80.09
190

- 393 -

II. APNDICES DEL CAPTULO 3

Tabla 40. Eficiencias para los mtodos ARNMF y ACE.


Problema GL.
BASE DE DATOS GL (parte 1)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

1
493
443
443
493
363
493
402
443
443
493
493
443
493
443
443
443
402
553
---493
493
493
493
593
503
443
493
493
---402
----

2
493
493
493
503
523
493
373
493
493
403
493
493
493
493
493
493
432
553
---472
472
472
472
472
472
493
503
332
---432
----

3
482
483
36.11.4
473
36.11.4
513
362
36.11.4
36.11.4
483
483
483
483
483
483
483
362
472
---463
463
463
463
463
463
36.11.4
473
462
---362
----

- 394 -

4
493
493
553
433
462
513
392
462
462
493
513
513
513
513
553
532
40.90.7
513
---563
563
563
563
563
563
553
503
343
---40.90.7
----

5
473
473
473
443
423
473
382
423
423
473
473
473
473
473
463
473
41.91.5
503
---533
533
533
523
523
523
463
473
403
---41.91.5
----

6
523
523
553
523
482
523
41.90.7
523
523
523
523
523
523
483
483
443
37.31.8
423
---433
533
443
443
443
443
523
523
382
---42.51.3
----

II. APNDICES DEL CAPTULO 3

Tabla 40. Eficiencias para los mtodos ARNMF y ACE.


Problema GL. (Continuacin).
BASE DE DATOS GL (parte 2)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

7
443
443
423
543
453
423
41.90.9
453
453
443
443
443
443
473
473
443
39.50.8
543
---473
473
473
473
473
473
423
443
412
---37.21.8
----

8
493
493
493
473
37.01.9
493
43.61.3
463
463
463
493
463
493
523
493
493
40.60.8
523
---432
432
432
432
432
432
493
463
392
---36.11.2
----

- 395 -

9
563
563
543
503
37.71.1
493
31.61.0
563
563
563
493
563
563
563
563
563
34.10.8
453
---453
453
453
453
453
453
563
453
382
---35.91.0
----

10
603
603
493
37.50
37.21.5
603
32.51.5
37.21.5
37.21.5
603
603
603
603
37.21.5
603
603
35.90.7
603
---603
603
603
603
603
603
603
35.61.6
37.21.5
---35.90.7
----

II. APNDICES DEL CAPTULO 3

Tabla 41. Eficiencias para los mtodos ARNMF y ACE.


Problema HE.
BASE DE DATOS HE (parte 1)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

1
762
762
762
742
773
762
742
762
762
752
762
752
762
762
762
762
742
762
732
752
752
752
752
752
752
762
762
762
722
752
772

2
742
742
743
763
752
742
742
742
783
742
742
742
742
743
743
742
752
783
783
703
703
703
703
703
703
762
783
762
743
732
743

3
742
752
79.70.6
76.51.8
752
742
722
742
762
752
752
752
752
77.40.9
713
742
76.91.8
783
773
75.60.7
75.60.7
75.60.7
75.60.7
75.60.7
75.60.7
753
773
803
77.40.9
742
813

- 396 -

4
81.30.8
81.30.8
763
752
762
81.30.8
742
762
723
74.51.6
75.91.8
74.51.6
75.91.8
783
763
752
70.01.9
762
723
722
722
722
722
722
722
773
722
773
752
69.81.8
763

5
752
752
762
762
762
752
732
752
752
74.61.7
74.61.7
74.61.7
74.61.7
732
762
752
622
752
742
693
693
693
693
693
693
733
693
73.81.9
693
622
703

6
7
79.11.0
742
79.11.0
742
79.31.1
723
742
76.20.5
78.50.6
722
79.11.0
742
703
722
79.11.0
742
79.90.8
762
79.11.0
783
79.11.0
783
79.11.0
783
79.11.0
783
79.11.0
742
79.31.1
732
74.41.7
772
65.71.4 61.01.3
802
723
79.31.1
762
773
742
773
742
773
742
773
742
773
742
773
742
803
783
773
752
76.40.6
762
713
742
65.21.5 65.21.0
683
652

II. APNDICES DEL CAPTULO 3

Tabla 41. Eficiencias para los mtodos ARNMF y ACE.


Problema HE. (Continuacin).
BASE DE DATOS HE (parte 2)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

8
723
723
693
742
76.81.8
712
722
723
773
773
802
773
763
723
752
723
58.91.7
81.31.0
723
71.31.9
71.31.9
712
712
712
712
743
742
742
722
57.90.9
64.91.5

9
713
713
74.10.9
75.50.3
742
713
74.80.5
79.41.8
79.90.8
762
752
762
752
82.90.5
74.10.9
763
62.41.5
76.61.8
79.90.8
762
73.70.5
73.70.5
73.70.5
73.70.5
73.70.5
762
77.81.9
78.30.5
76.61.8
61.01.0
67.11.6

10
762
762
713
73.20.5
703
762
693
762
74.01.5
732
762
732
762
722
713
703
60.91.9
73.21.9
74.40.5
74.81.6
693
693
69.81.8
69.81.8
69.81.8
732
792
783
73.21.9
60.61.2
67.40.3

- 397 -

11
89.70.8
79.70.8
713
713
663
79.70.8
66.11.9
663
713
672
713
672
713
692
713
742
56.71.4
742
722
723
722
722
68.41.6
68.41.6
66.91.5
672
79.60.8
762
682
53.90.6
64.01.7

12
672
672
652
713
672
672
70.70.3
67.21.6
652
67.21.6
67.21.6
67.21.6
67.21.6
70.10.5
652
663
58.50.7
663
67.21.6
70.30.2
68.60.5
68.60.5
68.60.5
68.60.5
68.60.5
71.610.17
672
672
663
55.10.4
55.10.4

13
713
68.51.6
732
49.90.5
58.70.4
713
66.41.4
68.51.6
732
68.51.6
68.51.6
68.51.6
68.51.6
66.41.4
662
68.51.6
50.70.4
68.51.6
662
61.140.15
61.140.15
61.140.15
61.140.15
61.140.15
61.140.15
61.140.15
66.41.4
713
57.70.6
51.70.7
56.90.5

II. APNDICES DEL CAPTULO 3

Tabla 42. Eficiencias para los mtodos ARNMF y ACE.


Problema LE.
BASE DE DATOS LE (parte 1)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

1
96.80.3
96.80.3
96.80.3
---96.80.3
96.80.3
97.70.3
96.80.3
96.80.3
96.80.3
96.80.3
96.80.3
96.80.3
96.80.3
96.80.3
97.70.3
96.30.4
96.80.3
96.80.3
97.80.2
97.80.2
97.80.2
97.80.2
97.80.2
97.80.2
93.81.2
93.81.2
---93.81.2
96.30.4
----

2
96.70.4
96.70.4
96.70.4
---96.60.5
96.70.4
95.80.8
96.70.4
96.70.4
96.70.4
96.70.4
96.70.4
96.70.4
932
96.70.4
96.01.0
94.20.3
96.70.4
932
95.81.8
95.81.8
95.81.8
95.81.8
95.81.8
95.81.8
932
94.81.8
---932
97.50.3
----

3
94.21.9
94.21.9
94.21.9
---91.81.8
94.21.9
96.20.5
94.21.9
94.21.9
94.21.9
94.21.9
94.21.9
94.21.9
94.21.9
94.21.9
94.11.8
912
96.20.9
96.50.8
95.01.6
95.01.6
95.01.6
95.01.6
95.01.6
95.01.6
94.11.8
96.30.3
---94.11.8
92.21.8
----

4
96.20.9
96.20.9
96.20.9
---932
96.20.9
96.00.5
96.20.9
96.20.9
96.20.9
96.20.9
96.20.9
96.20.9
96.20.9
96.20.9
922
93.80.4
97.10.5
97.20.4
95.01.8
92.81.9
92.81.9
92.81.9
92.81.9
92.81.9
96.10.5
96.50.6
---932
902
----

- 398 -

5
94.41.8
94.41.8
97.80.3
---94.70.4
94.41.8
933
94.41.8
94.41.8
97.80.3
97.80.3
97.81.2
94.41.8
97.80.3
94.41.8
97.60.2
89.91.1
912
94.11.8
96.80.4
96.80.4
96.80.4
96.80.4
96.80.4
96.80.4
94.61.7
96.31.1
---97.50.3
89.11.7
----

6
7
8
96.40.8
96.60.7
932
96.40.8
942
932
96.40.8
942
97.30.3
---------912
94.720.15 93.80.5
96.40.8
942
932
96.40.3
93.70.3 93.810.19
96.40.8
942
932
96.40.8
93.81.8
95.41.0
96.51.2
942
97.30.3
96.40.8
942
932
96.51.2
942
97.30.3
96.40.8
942
932
96.40.8
942
932
96.40.8
942
97.30.3
96.60.4
962
932
91.420.12 89.40.6
84.30.8
97.80.3
96.80.3
96.01.1
96.40.8
942
932
96.30.5
95.70.6
96.30.6
96.30.5
95.70.6
96.30.6
96.30.5
95.70.6
96.30.6
96.30.5
95.70.6
96.30.6
96.30.5
95.70.6
96.30.6
96.30.5
95.70.6
96.30.6
94.81.0
932
93.81.8
96.40.7
93.01.8
95.70.9
---------962
97.10.5
96.11.0
89.30.6
85.71.9
89.60.7
----------

II. APNDICES DEL CAPTULO 3

Tabla 42. Eficiencias para los mtodos ARNMF y ACE.


Problema LE. (Continuacin).
BASE DE DATOS LE (parte 2)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

9
96.60.9
96.60.9
943
---902
922
90.91.5
943
96.50.4
943
96.60.9
943
96.60.9
943
943
98.320.16
82.80.4
96.80.4
96.80.6
92.81.9
92.81.9
92.81.9
92.81.9
96.10.7
96.10.7
96.30.9
903
---96.31.1
883
----

10
97.10.6
96.51.2
94.81.8
---902
97.40.3
882
96.51.2
93.81.4
96.51.2
96.51.2
96.51.2
96.51.2
96.51.2
94.41.8
952
802
97.20.4
952
94.71.8
94.71.8
95.80.9
95.80.9
95.80.9
95.80.9
91.61.8
95.70.5
---95.81.8
91.71.6
----

11
97.01.2
97.01.2
96.80.6
---93.90.2
97.90.4
89.70.5
97.00.6
97.10.3
94.81.8
94.81.8
94.81.8
94.81.8
96.30.7
96.80.5
96.11.0
79.41.9
95.91.8
97.20.6
94.31.6
94.31.6
933
933
933
933
91.21.8
95.90.4
---93.91.7
863
----

12
96.50.6
96.50.6
96.10.5
---92.71.2
97.00.8
86.91.7
95.81.6
93.20.9
95.81.6
95.81.6
95.81.6
95.81.6
942
96.10.5
95.81.6
80.80.2
94.41.9
96.10.6
923
923
92.41.8
92.41.8
922
922
93.10.8
93.10.8
---96.51.1
83.01.5
----

- 399 -

13
14
15
95.00.6 92.31.7
912
93.51.6 95.51.9
94.70.8
95.51.8 94.91.8
96.30.8
---------90.40.9 87.31.9
91.70.5
96.40.9 96.80.6
92.51.9
87.80.5 87.20.4
89.10.6
93.51.6 97.20.6
95.90.7
93.71.1 94.21.1
94.70.7
93.51.6 95.51.9
97.10.5
93.51.6 95.11.8
95.90.7
93.51.6 95.51.9
97.10.5
93.51.6 95.11.8
95.90.7
96.70.6 95.51.9
96.60.3
95.51.8 94.91.8
96.30.8
93.51.6 97.20.6
92.51.9
74.61.6 76.11.3 77.940.05
942
912
97.00.4
94.31.2 95.20.9
96.30.4
93.41.8 94.340.12 94.30.6
892
92.50.6
91.90.2
95.20.7 90.91.7
862
95.20.7 90.91.7
842
793
812
842
793
812
842
93.30.7 92.80.5
92.20.4
94.01.0 94.50.4
92.20.4
---------95.31.8 96.00.7
94.61.8
872
852
872
----------

II. APNDICES DEL CAPTULO 3

Tabla 42. Eficiencias para los mtodos ARNMF y ACE.


Problema LE. (Continuacin).
BASE DE DATOS LE (parte 3)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

16
94.10.5
95.20.6
94.80.9
---89.00.4
96.20.6
87.80.6
942
94.80.9
96.01.6
96.01.6
96.01.6
942
94.91.7
97.30.2
942
63.10.3
95.71.6
94.60.6
92.51.4
893
862
862
862
862
91.40.3
91.40.3
---95.71.1
873
----

17
91.70.7
92.61.6
97.20.5
---870
932
842
932
94.60.7
942
942
942
932
95.90.5
922
94.51.8
63.10.3
94.51.8
912
89.80.3
89.80.3
882
882
882
882
89.530
94.20.7
---95.80.4
72.41.6
----

18
19
892
93.40.2
91.40.8
93.40.2
90.970.14
883
------86.940.06 86.50.4
91.40.8
93.40.2
87.110.11 87.660.18
91.40.8
91.91.5
91.91.6 91.2930.011
97.00.3
91.91.5
97.00.3
91.91.5
97.00.3
91.91.5
91.40.8
91.91.5
883
89.21.7
90.970.14
883
93.31.8
93.60.2
62.870.16 63.00.3
97.00.3
91.91.5
94.60.4 91.2930.011
872
873
872
873
723
733
723
733
723
733
723
733
873
90.10.4
873
90.10.4
------94.81.0
93.90.8
712
712
-------

- 400 -

20
21
91.450.17 86.670
91.450.17 86.670
89.91.3
78.070
------86.80.2
870
88.51.4
82.71.6
79.11.3
78.40.7
872
82.71.6
89.91.3
78.070
872
873
872
873
872
873
872
82.71.6
91.730
78.070
89.91.3
78.070
91.730
78.070
63.60.3 62.310.04
872
873
89.91.3
82.31.9
90.30.4
91.30.6
90.30.4
91.30.6
843
803
843
803
843
803
833
803
89.990.19 91.30.6
86.11.0
782
------90.61.2
872
72.41.6
62.270
-------

22
78.070
78.070
78.070
---73.20
78.070
752
62.270
66.930
62.270
62.270
62.270
62.270
78.070
78.070
78.070
62.270
62.270
66.930
773
773
773
773
773
773
773
773
---62.270
62.270
----

II. APNDICES DEL CAPTULO 3

Tabla 43. Eficiencias para los mtodos ARNMF y ACE.


Problema M1.
BASE DE DATOS M1

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

1
682
682
682
692
692
682
422
682
682
682
682
682
682
682
712
712
432
682
682
832
832
832
832
832
832
682
682
832
703
432
693

2
692
692
692
683
75.01.0
723
623
692
692
692
692
692
692
692
692
692
432
692
692
73.90.9
73.90.9
73.90.9
73.90.9
73.90.9
73.90.9
702
702
673
702
42.21.2
75.01.0

3
68.11.9
712
712
77.1.10
702
712
44.90.9
723
723
68.11.9
723
68.11.9
712
723
712
723
40.91.0
723
723
692
692
692
692
692
692
702
702
692
723
44.50.8
702

- 401 -

4
702
703
763
692
39.70.5
763
45.61.5
763
763
702
763
702
703
673
763
763
452
763
692
712
712
712
712
712
712
702
702
733
613
44.70.9
723

5
743
693
693
693
40.40.7
693
45.01.0
693
693
743
693
743
693
743
703
693
45.01.0
633
693
693
693
693
693
693
693
743
743
762
633
43.40.6
743

6
712
712
712
712
40.41.6
712
45.61.5
712
712
712
712
712
712
712
712
712
45.61.5
48.00.3
712
712
712
712
712
712
712
712
712
712
460
45.61.5
712

II. APNDICES DEL CAPTULO 3

Tabla 44. Eficiencias para los mtodos ARNMF y ACE.


Problema M2.
BASE DE DATOS M2

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

1
69.21.2
69.21.2
69.21.2
69.21.2
69.10.7
69.21.2
68.00.3
69.21.2
69.21.2
69.21.2
69.21.2
69.21.2
69.21.2
69.10.7
69.21.2
69.21.2
68.10.2
69.21.2
69.10.7
69.10.7
69.10.7
69.10.7
69.10.7
69.10.7
69.10.7
68.00.3
68.00.3
69.21.2
69.21.2
68.10.2
69.70.4

2
3
4
67.40.4
66.30.6
66.90.4
67.40.4
66.30.6
680
67.40.4
66.31.0
680
70.60.8
67.90.7 67.900.10
67.60.4
680
680
67.40.4
66.31.0
67.70.3
68.100.18
680
680
67.40.4
66.30.6
66.90.4
67.40.4
65.90.7
680
67.40.4
66.30.6
66.90.4
67.40.4
66.31.0
66.90.4
67.40.4
66.30.6
66.90.4
67.40.4
66.30.6
66.90.4
67.60.4
66.00.8
680
67.40.4
66.31.0
680
67.40.4
66.31.0
680
68.100.18
680
680
68.50.4
65.90.7
680
68.60.4 68.100.18 67.70.3
68.60.4
67.40.4
680
68.60.4
67.40.4
680
68.60.4
67.40.4
680
68.60.4
67.40.4
680
68.60.4
67.40.4
680
68.60.4
67.40.4
680
68.100.18
680
680
68.100.18
680
680
67.40.4
65.90.7
67.60.4
67.00.5
66.30.6
680
68.100.18
680
680
66.10.7
680
680

- 402 -

5
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680

6
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680

II. APNDICES DEL CAPTULO 3

Tabla 45. Eficiencias para los mtodos ARNMF y ACE.


Problema M3.
BASE DE DATOS M3

Mtodo
1
BL2
792
TEKA
792
CIB
792
TEKE
843
TEKC
843
DEV
813
DER3
813
TEKB
783
TEK
783
BL1
792
CLO
792
PRI
792
SAN
792
DER2
813
MAO
792
UTA
792
LEE
773
BOW
792
---YOU
BA 0.5
783
BA 0.6
783
BA 0.7
783
BA 0.8
783
BA 0.9
783
BA 1
783
CHI
91.900.10
SET
91.900.10
GD_DS
783
RLF
843
SCH
682
FUZ
813

2
753
753
753
832
792
753
783
773
773
753
753
753
753
783
753
89.01.9
48.60.9
753
---773
773
773
773
773
773
753
753
812
803
48.60.9
68.41.5

3
802
802
802
843
743
802
48.11.0
802
802
853
802
853
802
802
802
803
47.91.6
802
---813
813
813
813
813
813
802
802
793
853
47.91.6
65.31.9

- 403 -

4
842
842
90.21.2
90.21.2
752
842
48.71.5
803
803
90.21.2
90.21.2
90.21.2
90.21.2
842
90.21.2
812
52.30.7
842
---842
842
842
842
842
842
90.21.2
90.21.2
812
90.21.2
540
68.71.1

5
892
892
892
892
842
892
43.61.2
892
892
892
892
892
89.32
892
892
892
51.70.5
892
---892
892
892
892
892
892
892
892
892
892
540
642

6
792
792
792
792
792
792
49.51.6
792
643
643
643
643
643
643
792
792
51.60.4
792
---643
643
643
643
643
643
643
643
643
792
540
642

II. APNDICES DEL CAPTULO 3

Tabla 46. Eficiencias para los mtodos ARNMF y ACE.


Problema PI.
BASE DE DATOS PI (parte 1)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

1
74.81.1
74.81.1
75.240.17
66.30.6
75.240.17
74.81.1
76.30.3
75.240.17
75.240.17
75.50.3
75.50.3
75.50.3
75.50.3
75.50.3
75.240.17
75.240.17
66.30.6
75.240.17
75.240.17
75.50.3
75.50.3
75.50.3
75.50.3
75.50.3
75.50.3
75.60.2
75.50.3
75.50.3
75.240.17
66.30.6
75.40.3

2
76.10.2
76.10.2
76.10.2
65.30.7
75.10.3
76.10.2
75.440.14
76.10.2
76.10.2
75.720.18
75.720.18
75.720.18
75.720.18
75.720.17
76.10.2
75.720.18
69.70.7
76.040.13
76.10.2
75.600.08
75.600.08
75.600.08
75.600.08
75.600.08
75.600.08
74.41.0
74.41.0
74.41.0
75.00.4
65.70.6
75.440.14

- 404 -

3
76.760.15
76.760.15
76.160.18
70.80.4
74.80.4
76.160.18
75.80.2
76.760.15
76.160.18
76.760.15
76.760.15
76.760.15
76.760.15
74.41.1
76.160.18
76.760.15
66.90.5
73.71.4
76.160.18
75.51.2
75.51.2
75.51.2
75.51.2
75.51.2
75.51.2
75.200.13
75.200.13
75.200.13
76.160.18
65.20.4
74.920.13

4
76.160.17
76.160.17
76.160.17
70.80.9
75.50.3
76.160.17
64.80.5
76.160.17
73.61.4
77.00.2
77.00.2
77.00.2
76.160.17
77.00.2
73.61.4
76.160.17
67.90.7
76.520.12
76.520.12
77.560.15
77.560.15
77.560.15
77.560.15
77.560.15
77.560.15
76.400.17
74.61.1
78.80.3
73.61.4
64.70.5
74.50.2

II. APNDICES DEL CAPTULO 3

Tabla 46. Eficiencias para los mtodos ARNMF y ACE.


Problema PI. (Continuacin).
BASE DE DATOS PI (parte 2)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

5
77.200.18
77.200.18
75.70.4
69.10.8
74.60.3
77.200.18
60.400.17
77.200.18
75.10.3
76.560.09
76.560.09
76.560.09
76.560.09
76.560.09
75.70.4
76.560.09
67.80.5
75.10.3
75.10.3
76.21.2
76.21.2
76.21.2
76.21.2
76.21.2
76.21.2
76.20.3
76.20.3
68.30.6
75.10.3
63.10.5
75.70.4

6
77.00.3
77.00.3
75.520.10
65.90.2
73.71.0
77.00.3
65.90.2
77.00.3
75.520.10
75.520.10
75.520.10
75.520.10
75.520.10
75.520.10
75.520.10
77.320.18
66.90.3
73.41.3
75.520.10
77.320.18
77.320.18
77.320.18
77.320.18
77.320.18
77.320.18
77.00.3
77.00.3
69.30.6
73.41.3
67.560.17
74.41.0

- 405 -

7
75.760.14
75.760.14
75.760.14
66.080.13
65.000.09
75.760.14
65.000.09
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
64.440.13
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
66.70.2
75.760.13
67.60.4
67.60.4

8
74.40
74.40
74.40
65.20
65.20
63.30.3
65.600.13
63.30.3
74.40
63.30.3
63.30.3
63.30.3
63.30.3
63.30.3
74.40
74.40
65.20
74.40
74.40
74.40
74.40
74.40
74.40
74.40
74.40
74.40
74.40
65.560.11
74.40
65.20
65.400.17

II. APNDICES DEL CAPTULO 3

Tabla 47. Eficiencias para los mtodos ARNMF y ACE.


Problema VO.
BASE DE DATOS VO (parte 1)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

1
94.40.3
94.40.3
94.40.3
93.70.2
932
94.20.4
93.70.2
94.90.3
94.90.3
94.40.3
94.40.3
94.40.3
94.40.3
94.40.3
94.90.3
94.40.3
91.30.6
912
94.20.4
93.01.6
92.81.6
92.81.6
92.81.6
92.81.6
92.81.6
912
912
94.40.3
94.40.3
91.30.6
----

2
912
94.20.3
912
883
94.50.3
903
913
922
912
93.21.6
912
93.21.6
912
912
912
912
903
94.60.3
88.91.9
94.50.3
94.50.3
94.50.3
94.50.3
94.50.3
94.50.3
912
912
95.40.4
94.10.3
903
----

3
94.80.2
922
94.80.2
92.70.4
94.00.2
94.80.2
902
922
922
93.31.6
93.31.6
93.31.6
922
93.31.6
94.80.2
94.80.2
92.40.5
913
94.50.5
912
912
912
912
94.40.3
94.40.3
912
912
912
94.20.2
91.00.8
----

4
5
922
95.90.2
922
95.90.2
922
95.00.3
903
92.60.3
912
88.31.9
922
95.90.2
92.31.5
873
922
93.81.6
912
92.91.6
91.61.8 93.81.6
93.80.3 92.81.6
91.61.8 93.81.6
922
922
95.10.2
922
94.90.4 94.80.3
95.10.2 94.60.4
91.60.3
893
912 94.600.16
95.30.2
922
922
94.50.4
922
902
922
902
922
902
922
902
922
902
902
93.40.5
902
93.40.5
902
93.40.5
92.81.5
922
89.40.4
842
-------

- 406 -

6
893
893
912
87.81.8
852
893
88.70.3
893
92.80.3
95.00.3
902
95.00.3
95.00.3
95.00.3
94.90.2
94.01.5
92.10.4
94.10.3
92.61.7
922
93.50.3
93.20.2
93.20.2
93.20.2
893
902
902
902
93.01.6
802
----

7
94.200.13
94.200.13
94.70.3
91.10.3
89.00.5
93.20.4
87.40.3
94.900.18
902
95.00.4
94.70.4
95.00.4
95.00.4
93.01.6
94.70.3
94.60.3
90.40.7
94.600.16
95.20.2
91.21.8
903
903
903
903
93.30.3
903
903
94.70.3
922
84.50.5
----

8
95.20.2
94.30.2
95.30.2
88.11.6
87.90.5
93.90.4
863
95.00.3
94.40.2
93.11.6
93.80.2
93.11.6
93.11.6
92.51.6
94.60.2
93.11.6
88.70.4
912
903
92.41.6
92.01.5
92.01.5
92.80.3
92.80.3
93.40.3
94.20.3
94.20.3
94.20.3
93.81.6
87.80.6
----

II. APNDICES DEL CAPTULO 3

Tabla 47. Eficiencias para los mtodos ARNMF y ACE.


Problema VO. (Continuacin).
BASE DE DATOS VO (parte 2)

Mtodo
9
10
11
12
13
14
15
BL2
89.41.3 91.80.3
883
882
92.800.13 93.000.15 872
TEKA
912
89.01.9 93.11.6
912
92.800.13 92.900.18 91.51.5
CIB
95.20.2 95.500.17 94.30.7 92.01.4 92.51.6 90.11.7 92.200.13
TEKE
863
91.80.8
893
85.50.3 72.01.0 72.01.0 72.600.16
TEKC
832
812
81.10.3
793
83.300.15 72.20.2
680
DEV
92.11.5 93.70.3
872
893
883
90.90.4
872
DER3 88.10.2 87.80.4 86.80.3
870
870
82.10.4
710
TEKB
892
882
91.80.5 94.100.10 92.800.13 92.900.18 872
TEK
94.60.2 94.10.4
912
883
88.11.9 90.11.7
872
BL1
913
91.41.8 91.61.6 91.41.8
922
940
930
CLO
913
91.41.8 91.61.6 91.41.8
922
940
930
PRI
913
91.41.8 91.61.6 91.41.8
922
940
930
SAN
94.50.5 91.41.8 91.61.6
912
922
940
872
DER2 94.50.5 91.41.8 95.400.16 91.41.8
922
92.900.18 872
MAO
922
95.500.17 95.500.17 92.01.4
873
90.11.7 92.200.13
UTA
94.50.5 91.41.8 95.60.5
960
922
92.900.18 872
LEE
86.50.5
832
83.01.6
812
802
64.00.5 65.80.2
BOW 94.900.18 94.80.2 94.01.6 94.100.10
922
940
930
YOU
913
95.500.17
923
93.51.6
922
92.900.18 92.30.5
BA 0.5 94.400.16 93.30.9 92.61.6 92.51.6 92.51.6 93.000.15
930
BA 0.6
892
882
903
902
92.31.5 93.100.17 930
BA 0.7
892
882
903
882
892
93.100.18 930
BA 0.8
892
882
903
882
892
93.100.18 930
BA 0.9
892
882
903
882
892
93.100.18 930
BA 1
892
93.40.2 93.30.2 94.10.4 92.31.5 94.100.10 930
CHI
92.60.2 90.50.8
893
873
892
872
872
SET
903
90.50.8 91.50.4
873
892
872
872
GD_DS 903
90.50.8
893
893
92.700.15 91.50.3
902
RLF
94.40.5 93.900.10 93.800.13 940
93.70.3
940
930
SCH
83.40.7 80.70.5 80.60.3 72.70.6 70.10.5 62.900.10 630
---------------------FUZ

- 407 -

16
88.81.7
88.81.7
88.81.7
740
680
88.81.7
710
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
660
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
630
----

II. APNDICES DEL CAPTULO 3

Tabla 48. Eficiencias para los mtodos ARNMF y ACE.


Problema WD.
BASE DE DATOS WD (parte 1)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

1
952
952
952
97.51.7
99.000.14
98.690.19
952
952
952
952
952
952
952
952
97.21.7
96.41.6
98.70.6
952
96.690.11
98.750.13
98.750.13
98.750.13
98.750.13
98.750.13
98.750.13
99.060.14
96.81.7
96.81.7
98.70.2
97.51.7
952

2
942
98.690.14
933
99.500.08
95.01.9
98.40.5
98.500.14
933
942
98.500.10
98.500.10
98.500.10
98.500.10
933
96.690.15
933
96.01.4
952
942
942
96.91.7
96.91.7
96.91.7
96.91.7
96.91.7
943
98.40.3
98.30.5
942
98.11.2
98.500.10

3
98.50.4
942
98.500.19
952
98.690.15
962
94.61.9
98.40.3
98.500.19
98.10.5
98.10.5
98.10.5
98.10.5
98.40.3
98.50.4
922
932
94.91.9
952
98.750
98.630.13
98.630.13
98.630.13
98.630.13
98.630.13
98.10.6
98.10.6
98.10.6
98.880.08
99.250.08
98.190.17

- 408 -

4
98.10.7
98.10.7
95.41.9
94.31.8
96.01.6
98.00.6
98.40.5
98.750.13
95.41.9
933
96.11.8
933
96.11.8
943
99.060.10
952
98.80.3
97.21.7
98.90.2
98.810.06
98.810.06
98.810.06
98.810.06
98.810.06
98.810.06
98.500.10
98.40.4
922
96.51.8
97.10.9
96.61.7

5
97.31.7
98.60.4
95.61.6
97.31.7
943
943
97.11.7
97.21.7
95.61.6
98.130.16
952
98.130.16
98.130.16
95.61.6
98.60.2
98.60.2
98.80.4
99.130.17
98.11.0
97.80.9
97.80.9
97.80.9
97.80.9
97.80.9
97.80.9
98.630.18
98.30.5
932
98.70.5
922
98.630.13

6
98.930.16
99.060.14
96.81.7
942
99.000.19
932
943
962
96.81.7
96.71.7
98.690.17
96.71.7
98.690.17
98.630.13
99.060.14
952
98.40.3
922
94.81.9
933
933
933
933
933
933
98.40.6
98.40.6
98.060.17
99.250.18
97.10.9
98.500.14

II. APNDICES DEL CAPTULO 3

Tabla 48. Eficiencias para los mtodos ARNMF y ACE.


Problema WD. (Continuacin).
BASE DE DATOS WD (parte 2)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

7
97.81.0
97.11.7
98.690.15
912
98.40.5
98.30.3
97.11.7
952
98.70.4
98.630.18
952
98.630.18
952
98.880.16
98.940.13
933
962
96.81.6
99.440.11
902
902
902
923
923
923
97.560.17
97.060.09
97.060.09
98.560.16
88.10.8
933

8
97.21.4
962
98.40.4
942
99.190.13
97.21.4
97.01.7
97.90.8
98.40.4
97.90.8
98.810.17
97.90.8
97.90.8
98.80.2
98.60.2
952
97.50.8
97.01.7
99.40.2
942
942
942
922
922
922
942
97.30.2
95.51.6
98.20.2
83.31.9
95.61.9

9
99.000.10
962
98.90.2
893
96.11.9
942
933
98.500.17
98.750.16
95.81.6
95.8.1.6
95.81.6
95.81.6
942
97.01.7
98.810.17
922
99.190.13
97.51.8
922
922
922
922
922
922
94.01.8
95.51.6
96.10.2
98.440.19
80.61.9
912

- 409 -

10
952
96.91.7
96.01.6
932
96.31.7
98.20.3
962
96.21.8
942
96.41.1
96.41.1
96.41.1
96.41.1
98.940.13
96.01.6
97.70.9
98.40.3
99.10.3
97.11.6
882
882
882
893
893
893
97.380.18
97.70.2
932
98.810.15
82.80.4
902

11
98.10.9
96.81.8
98.90.2
873
98.60.8
98.880.16
96.41.8
98.750.16
96.51.5
96.81.7
98.810.15
96.81.7
98.810.14
97.01.7
952
98.810.15
96.01.8
98.50.3
99.500.15
893
893
893
95.60.4
95.60.4
95.60.4
96.880.09
96.61.0
883
96.61.7
82.190.14
942

12
98.940.19
99.00.4
96.51.8
903
97.91.1
96.21.6
96.31.7
97.80.9
99.500.18
97.80.9
98.750.16
97.80.9
97.80.9
98.60.2
96.51.8
98.750.16
902
99.00.4
98.61.2
903
903
903
95.30.2
95.30.2
95.30.2
97.690.09
942
892
913
772
95.61.7

II. APNDICES DEL CAPTULO 3

Tabla 48. Eficiencias para los mtodos ARNMF y ACE.


Problema WD. (Continuacin).
BASE DE DATOS WD (parte 3)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

13
952
962
99.250.13
912
95.71.9
98.60.2
903
97.41.7
98.880.18
97.41.7
97.41.7
97.41.7
97.41.7
98.810.17
932
98.70.2
902
962
97.71.8
903
903
903
903
902
902
97.810.10
98.190.17
96.750.08
962
94.81.4
932

14
98.20.4
98.00.8
952
912
98.80.2
99.250.13
942
96.91.7
952
98.10.9
98.10.9
98.10.9
96.91.7
98.90.2
952
98.10.9
853
99.500.13
96.11.7
97.40.4
97.40.4
97.40.4
97.40.4
97.40.4
97.40.4
98.630.13
96.940.06
95.31.6
952
932
952

15
933
97.91.0
98.60.2
902
942
98.40.7
922
98.810.15
96.91.8
98.810.15
98.810.15
98.810.15
98.810.15
99.130.10
98.50.4
97.21.7
903
97.21.8
96.690.17
932
932
932
932
932
932
98.10.4
97.190.14
97.190.14
98.880.16
922
913

- 410 -

16
96.41.7
98.20.7
98.20.2
932
96.61.9
94.81.8
942
98.20.7
96.51.8
98.20.7
98.20.7
98.20.7
98.20.7
952
97.41.7
98.810.17
93.80.4
99.30.2
98.880.08
922
922
922
922
922
922
96.90.3
96.90.3
96.90.3
99.060.19
903
913

17
962
97.01.7
952
913
98.40.6
96.60.8
942
97.01.7
98.940.19
98.690.15
98.690.15
98.690.15
98.690.15
98.560.09
96.31.8
923
873
97.81.4
98.560.13
98.40.7
98.40.7
98.40.7
98.40.7
98.40.7
98.40.7
97.10.5
97.40.3
97.40.3
952
882
97.90.2

18
96.61.4
98.810.14
98.560.10
912
952
952
892
98.820.15
99.30.5
98.630.16
932
98.630.16
932
98.940.13
98.560.10
95.01.9
912
98.940.16
952
923
923
923
923
923
923
97.560.17
97.060.10
97.060.10
98.560.16
88.10.8
933

II. APNDICES DEL CAPTULO 3

Tabla 48. Eficiencias para los mtodos ARNMF y ACE.


Problema WD. (Continuacin).
BASE DE DATOS WD (parte 4)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

19
98.31.0
97.31.7
98.940.10
953
932
932
922
99.630.17
99.30.3
99.630.17
99.630.17
99.630.17
99.630.17
98.940.13
952
942
872
99.250.16
942
922
922
922
922
922
922
942
97.30.2
95.51.6
98.20.2
83.31.9
95.61.9

20
97.71.8
98.60.4
94.61.8
87.90.3
94.51.8
932
93.01.8
98.60.4
94.61.8
98.60.4
98.60.4
98.60.4
98.60.4
933
94.61.8
98.940.16
853
962
97.71.1
922
922
922
922
922
922
94.01.8
95.51.6
96.10.2
98.440.19
80.61.9
912

21
942
97.11.7
98.500.19
812
922
913
912
97.11.7
98.500.19
97.11.7
97.11.7
97.11.7
97.11.7
98.940.10
99.130.14
95.81.7
912
98.750.19
96.51.8
97.10.3
97.10.3
97.10.3
893
893
893
97.380.18
97.70.2
932
98.810.15
82.80.4
902

- 411 -

22
942
99.130.17
99.000.10
842
893
95.80.7
882
99.130.17
99.000.10
99.130.17
96.71.7
99.130.17
96.71.7
952
99.000.10
96.71.7
852
98.30.3
922
95.60.4
95.60.4
95.60.4
95.60.4
95.60.4
95.60.4
96.880.09
96.61.0
883
96.61.7
82.190.14
942

23
932
98.30.3
912
84.30.6
903
95.31.0
873
98.30.3
912
98.30.3
98.30.3
98.30.3
98.30.3
96.81.7
912
96.81.7
93.10.4
96.71.4
952
882
882
882
95.30.2
95.30.2
95.30.2
97.690.10
942
892
913
772
95.61.7

24
932
952
912
843
942
903
903
94.71.9
98.30.2
94.71.9
94.71.9
94.71.9
94.71.9
98.440.17
98.30.2
94.21.8
782
952
952
95.10.4
95.10.4
95.10.4
95.10.4
95.10.4
95.10.4
97.30.2
95.71.7
95.90.5
98.60.2
69.11.1
932

II. APNDICES DEL CAPTULO 3

Tabla 48. Eficiencias para los mtodos ARNMF y ACE.


Problema WD. (Continuacin).
BASE DE DATOS WD (parte 5)

Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

25
922
98.440.14
96.61.7
803
933
902
903
98.440.14
96.61.7
98.440.14
913
98.440.14
98.440.14
903
96.61.7
912
81.30.5
932
97.70.7
91.51.7
91.51.7
91.51.7
91.51.7
91.51.7
91.51.7
97.30.3
902
93.31.6
98.190.15
68.80.9
932

26
922
95.61.6
942
81.40.7
932
882
902
98.310.13
942
98.310.13
98.310.13
98.310.13
98.310.13
903
942
912
81.11.9
94.81.7
942
892
893
893
893
893
893
94.31.6
902
95.60.2
942
67.31.4
923

27
903
98.000.16
98.500.14
79.10.2
942
922
893
98.000.16
98.500.13
98.000.16
98.000.16
98.000.16
98.000.16
92.440.06
98.500.14
792
792
932
98.000.16
94.10.5
94.10.5
94.10.5
94.10.5
94.10.5
94.10.5
96.690.16
94.60.7
93.31.6
98.000.16
62.40.5
922

- 412 -

28
92.000.13
94.500.13
892
71.10.4
96.810.15
873
89.91.0
94.500.13
892
94.500.13
902
94.500.13
902
892
892
76.91.8
76.41.4
92.90.3
94.500.13
903
903
903
903
903
903
942
95.500.08
922
94.500.13
64.3750
96.60.2

29
84.11.7
92.30.3
893
67.60.4
883
63.60.3
89.940.06
92.30.2
893
92.30.3
92.30.3
92.30.3
92.30.3
75.61.9
893
75.71.9
78.90.6
92.30.3
893
903
903
903
903
903
903
94.21.6
873
912
893
64.3750
882

30
64.3750
883
71.30.3
67.80.4
852
64.3750
842
883
91.000.10
883
71.30.3
883
883
71.30.3
71.30.3
71.30.3
78.01.3
71.30.3
91.000.10
91.000.10
91.000.10
91.000.10
91.000.10
91.000.10
91.000.10
91.000.10
763
92.51.3
91.000.10
64.3750
892

II. APNDICES DEL CAPTULO 3

II.4. Eficiencias para los mtodos ARNMF &WD


Tabla 49. Eficiencias para los mtodos ARNMF&WD.
Problema BN.
BASE DE DATOS BN (parte 1)
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

1
65.11.0
65.11.0
65.11.0
---65.11.0
65.11.0
65.11.0
65.11.0
66.01.3
66.01.3
66.01.3
66.01.3
65.70.4
63.91.0
65.50.7
71.50.8
63.20.6

2
65.41.2
65.41.2
66.40.9
---65.60.4
72.00.9
65.41.2
64.40.9
66.81.0
67.10.7
66.81.0
66.81.0
67.10.7
63.20.6
66.20.9
71.70.9
71.70.9

3
65.60.8
65.60.8
65.10.6
---66.70.9
72.30.8
65.60.8
65.10.6
67.70.8
65.70.5
67.70.8
67.70.8
66.60.9
65.60.6
64.30.8
72.20.4
70.60.9

4
65.90.7
65.90.7
66.00.8
---67.40.6
72.40.8
65.90.7
66.00.8
68.00.8
68.00.8
68.00.8
68.00.8
67.40.6
66.60.9
64.01.0
71.31.0
70.90.3

5
66.90.8
66.90.8
66.20.7
---66.90.5
71.81.1
65.70.9
64.70.6
66.90.5
66.90.5
66.90.5
66.90.5
66.90.5
65.41.0
67.01.0
69.90.6
70.20.4

6
66.41.1
66.40.6
66.30.8
---67.60.7
70.50.8
67.81.0
66.30.8
67.60.7
67.60.7
67.60.7
67.60.7
66.40.7
65.41.0
66.60.8
69.00.8
70.90.8

7
66.80.8
67.11.0
66.00.7
---66.70.8
72.71.4
67.10.9
66.00.7
66.70.8
66.70.8
66.70.8
66.70.8
66.00.7
66.60.7
66.21.1
69.20.7
70.81.0

8
66.80.8
66.31.0
65.60.5
---66.70.8
70.11.1
66.80.8
65.60.5
66.80.8
66.80.8
66.80.8
66.91.2
66.80.8
66.11.0
66.31.0
69.01.2
72.61.5

15
65.20.8
65.20.8
64.70.7
---67.40.9
66.30.9
65.20.8
65.51.0
65.20.8
65.20.8
65.20.8
65.20.8
66.40.6
66.60.7
66.80.6
72.00.9
72.00.8

16
64.90.7
67.10.9
64.80.7
---68.70.7
68.40.9
67.10.9
64.80.7
67.10.9
67.10.9
67.10.9
67.10.9
68.30.8
66.40.7
67.40.8
71.60.7
72.80.8

BASE DE DATOS BN (parte 2)


Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

9
67.50.8
66.20.6
66.20.8
---67.50.8
74.41.0
67.50.8
67.60.6
65.20.6
65.20.6
65.20.6
65.20.6
66.31.1
68.91.2
65.10.9
69.11.2
69.41.1

10
67.30.8
67.30.8
65.20.5
---67.11.2
71.30.9
65.30.7
67.40.9
67.30.8
67.30.8
67.30.8
67.30.8
64.40.7
67.10.9
67.30.8
70.10.6
72.91.2

11
68.51.0
68.51.0
67.20.6
---68.51.0
74.01.4
65.50.8
64.70.6
68.51.0
68.51.0
68.51.0
68.51.0
65.40.7
66.90.8
65.70.6
73.21.8
72.50.7

12
65.30.4
65.30.4
66.00.7
---65.30.4
70.71.2
65.30.4
64.40.8
65.30.4
65.30.4
65.30.4
65.30.4
65.30.4
68.30.9
66.10.6
69.81.0
70.60.7

- 413 -

13
65.41.2
65.31.6
65.31.0
---64.40.3
70.01.0
65.31.6
64.40.8
65.41.2
65.41.2
65.41.2
65.41.2
65.41.2
68.40.5
67.00.7
71.01.2
72.90.8

14
66.20.5
66.20.5
64.50.9
---66.60.8
71.40.9
66.20.5
65.10.6
66.20.5
66.20.5
66.20.5
66.20.5
65.60.8
67.70.9
66.60.8
72.31.1
72.30.8

II. APNDICES DEL CAPTULO 3

Tabla 49. Eficiencias para los mtodos ARNMF&WD.


Problema BN. (Continuacin).
BASE DE DATOS BN (parte 3)
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

17
65.31.0
65.31.0
66.70.9
---66.10.4
69.21.1
65.31.0
66.70.9
65.31.0
65.31.0
65.31.0
65.31.0
67.50.7
66.30.8
66.80.6
69.90.6
71.60.9

18
67.40.5
67.40.5
65.70.6
---68.20.9
66.41.3
67.40.5
65.70.6
68.20.9
68.20.9
68.20.9
67.40.5
66.70.8
66.20.4
66.30.7
69.50.7
71.30.7

19
67.40.6
67.40.6
66.30.9
---65.90.6
67.80.9
67.40.6
66.30.9
66.70.5
66.70.5
66.70.5
66.70.5
66.80.9
67.80.7
66.80.9
67.80.6
70.20.4

20
64.30.8
64.30.8
66.70.4
---66.61.0
67.01.1
64.30.8
65.50.5
66.61.0
66.60.5
66.61.0
66.61.0
67.50.8
66.40.7
65.10.4
67.10.7
68.40.7

21
68.00.5
68.00.5
66.81.0
---68.20.6
68.51.1
68.00.5
67.21.2
68.00.5
68.00.5
68.00.5
68.00.5
66.20.5
66.00.6
66.40.6
65.40.6
69.70.7

22
66.70.7
66.70.7
66.70.7
---66.11.1
67.00.9
66.70.7
66.70.8
66.70.7
66.70.7
66.70.7
66.70.7
67.01.2
66.10.6
67.20.5
65.60.7
70.10.6

23
67.50.6
65.50.9
65.50.9
---64.60.7
66.91.0
64.60.7
64.60.7
64.60.7
64.60.7
64.60.7
64.60.7
64.60.7
64.10.6
66.10.4
67.00.7
68.60.9

24
68.40.5
68.40.5
67.51.0
---67.51.0
67.70.7
67.51.0
63.61.1
67.20.7
67.20.7
67.20.7
67.20.7
67.51.0
66.91.3
67.51.0
66.20.9
70.70.6

31
67.70.5
67.01.0
65.11.2
---64.90.5
65.40.6
67.70.5
65.11.2
67.70.5
67.70.5
67.70.5
67.70.5
66.40.4
66.70.4
67.70.4
69.90.6
68.60.9

32
66.30.8
67.10.5
69.20.7
---67.00.2
65.60.5
66.30.8
61.31.1
63.90.4
63.90.4
63.90.4
66.30.8
68.00.7
66.70.7
66.30.8
70.30.2
63.00.7

BASE DE DATOS BN (parte 4)


Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

25
66.90.8
66.60.7
63.10.9
---63.10.9
67.90.7
66.90.8
68.20.9
66.90.8
66.90.8
66.90.8
66.90.8
69.90.5
63.61.2
66.90.8
66.80.7
69.20.5

26
65.10.6
65.10.6
62.20.7
---65.10.6
68.20.6
65.10.6
62.20.7
65.10.6
65.10.6
65.10.6
65.10.6
69.40.4
63.01.0
69.10.7
67.20.5
70.10.9

27
65.21.0
65.21.0
62.31.2
---65.21.0
66.40.6
65.21.0
64.60.7
65.21.0
65.21.0
65.21.0
65.21.0
69.10.5
65.20.5
68.70.5
65.90.8
68.40.7

28
68.61.0
61.30.9
64.81.8
---68.61.0
66.40.7
68.61.0
66.20.6
68.61.0
68.61.0
68.61.0
68.61.0
69.30.4
63.90.5
70.31.0
66.20.9
66.60.7

- 414 -

29
65.70.5
65.70.5
66.01.3
---66.10.5
65.50.6
65.70.5
66.11.1
65.70.5
65.70.5
65.70.5
65.70.5
68.20.5
68.60.5
71.50.4
623
66.80.7

30
67.80.6
66.40.7
62.21.7
---66.30.5
65.20.6
67.80.6
64.41.1
67.80.6
67.80.6
67.80.6
67.80.6
66.30.5
67.40.8
68.60.5
69.10.6
68.21.0

II. APNDICES DEL CAPTULO 3

Tabla 49. Eficiencias para los mtodos ARNMF&WD.


Problema BN. (Continuacin).
BASE DE DATOS BN (parte 5)
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

33
63.70.9
63.70.9
72.20.9
---64.30.6
69.20.7
63.70.9
64.31.1
64.00.9
64.00.9
64.00.9
64.00.9
65.10.7
64.80.8
70.50.6
67.61.1
64.30.8

34
61.40.6
72.00.9
74.60.5
---61.40.6
66.80.2
61.40.6
67.40.7
61.40.6
61.40.6
61.40.6
61.40.6
64.80.8
62.51.0
62.50.5
67.40.7
63.60.7

35
67.20.6
67.20.6
65.10.3
---60.60.5
61.80.5
67.20.6
67.00.5
67.20.6
67.20.6
67.20.6
67.20.6
62.80.8
64.40.5
64.60.9
67.00.5
66.10.4

36
62.30.9
62.30.9
65.40.2
---60.11.2
61.70.9
66.00.6
65.50.2
66.00.6
66.00.6
66.00.6
66.00.6
59.90.6
70.71.5
69.20.2
65.50.2
66.20.5

37
38
62.50.3 65.51.0
62.50.3 65.51.0
65.20.6 66.70
------66.00.5 65.51.0
62.10.7 60.50.4
62.50.3 65.51.0
65.20.6 66.70
62.50.3 65.51.0
62.50.3 65.51.0
62.50.3 65.51.0
62.50.3 65.51.0
64.60.5 69.81.1
60.20.8 65.51.0
69.00 72.530.12
65.20.6 66.70
68.70.7 69.81.1

39
64.40.6
64.40.6
66.70
---64.40.6
66.70
64.40.6
66.70
64.40.6
64.40.6
64.40.6
64.40.6
64.60.5
66.70
66.70
66.70
66.70

Tabla 50. Eficiencias para los mtodos ARNMF&WD.


Problema BU.
BASE DE DATOS BU
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

1
672
672
63.51.7
68.30.4
672
692
672
60.11.3
672
672
672
672
672
56.91.4
672
672
----

2
57.71.0
57.71.0
54.90.5
62.01.1
652
63.40.9
57.71.0
56.30.8
652
652
652
652
57.71.0
60.41.3
652
69.50.2
----

3
55.70.6
55.70.6
550.5
52.60.4
67.41.6
60.60.7
55.70.6
54.50.5
55.70.6
55.70.6
55.70.6
55.70.6
55.70.6
60.60.8
55.70.6
662
----

- 415 -

4
57.41.1
57.41.1
51.30.4
51.40.8
54.90.5
57.91.4
57.41.1
53.90.5
57.41.1
57.41.1
57.41.1
57.41.1
54.90.5
57.41.1
54.90.5
57.51.1
----

5
50.400.16
50.400.16
50.400.16
51.30.5
58.50.8
58.50.8
50.400.16
50.400.16
50.400.16
50.400.16
50.400.16
50.400.16
53.50.6
50.400.16
53.50.6
570.8
----

6
50.50.6
50.50.6
540
54.30.4
55.50.5
55.50.5
50.50.6
540
50.50.6
50.50.6
50.50.6
50.50.6
57.60.8
50.50.6
50.50.6
54.30.4
----

II. APNDICES DEL CAPTULO 3

Tabla 51. Eficiencias para los mtodos ARNMF&WD.


Problema CR.
BASE DE DATOS CR (parte 1)
Mtodo
1
2
3
853
813
853
BL2
853
813
853
TEKA
833
843
853
CIB
---------TEKE
853
813
853
DEV
832
824
785
DER3
853
813
853
TEKB
833 86.41.7 823
TEK
853
813
853
BL1
853
813
853
CLO
853
813
853
PRI
853
813
853
SAN
853
813
853
DER2
853
814
833
MAO
86.21.7 853 87.50.3
UTA
772 73.51.8 742
LEE
843
824
824
YOU

4
88.20.3
88.20.3
87.90.4
---88.20.3
844
88.20.3
853
88.20.3
88.20.3
88.20.3
88.20.3
775
86.10.3
88.20.3
752
843

5
832
852
805
---833
815
833
853
852
852
842
852
87.00.4
794
852
703
833

6
7
8
86.51.7
853
853
86.51.7
853
853
843
86.80.2
804
---------86.51.7
853
853
853
853
853
86.51.7
853
853
814
745
843
86.51.7
853
853
86.51.7
853
853
86.51.7
853
853
86.51.7
853
853
86.80.3 87.50.3
843
823
823
823
88.20.3
843
804
742
76.01.1 76.81.2
715
804
804

BASE DE DATOS CR (parte 2)


Mtodo
9
10
746
824
BL2
853
824
TEKA
814
834
CIB
------TEKE
746
825
DEV
815
853
DER3
853
824
TEKB
812
833
TEK
746
824
BL1
746
824
CLO
746
824
PRI
746
824
SAN
814
853
DER2
767
86.20.4
MAO
804
87.50.2
UTA
714
723
LEE
853
YOU 88.200.17

11
814
853
843
---814
755
814
833
814
814
814
814
814
843
843
704
824

12
13
88.100.07
880
88.100.07
880
832
813
------88.100.07
880
855
880
88.100.07
880
832
853
88.100.07
880
88.100.07
880
88.100.07
880
88.100.07
880
785
853
832
814
852
880
743
76.70.5
853
853

- 416 -

14
85.81.5
880
85.81.5
---85.81.5
880
85.81.5
85.81.5
85.81.5
85.81.5
85.81.5
85.81.5
85.81.5
880
85.81.5
65.71.3
85.81.5

15
880
880
723
---880
880
880
880
880
880
880
880
880
61.10.7
880
68.30.5
880

II. APNDICES DEL CAPTULO 3

Tabla 52. Eficiencias para los mtodos ARNMF&WD.


Problema GL.
BASE DE DATOS GL (parte 1)
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

1
443
443
443
443
443
402
443
443
443
443
443
443
443
443
493
524
----

2
554
554
493
493
554
43.11.4
554
493
554
554
554
554
554
554
493
432
----

3
454
454
474
474
454
43.71.5
454
36.11.4
454
454
454
454
474
454
454
362
----

4
493
493
493
434
493
43.91.5
493
524
493
493
493
493
474
493
493
392
----

5
473
515
463
484
473
49.51.9
515
463
473
473
473
473
473
473
473
41.70.8
----

BASE DE DATOS GL (parte 2)


Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

7
443
443
473
45.91.9
443
45.91.9
443
464
443
443
443
443
473
463
443
37.51.3
----

8
493
493
493
564
493
49.91.0
493
493
493
493
493
463
523
493
493
42.70.7
----

- 417 -

9
563
563
563
555
563
43.81.5
563
563
563
563
563
563
563
563
563
37.30.9
----

10
603
603
603
603
603
37.21.5
603
603
603
603
603
603
37.21.5
603
603
37.50
----

6
514
514
483
463
514
43.11.9
514
484
514
514
514
514
514
514
514
40.21.3
----

II. APNDICES DEL CAPTULO 3

Tabla 53. Eficiencias para los mtodos ARNMF&WD.


Problema HE.
BASE DE DATOS HE (parte 1)
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

1
752
752
752
742
752
742
752
752
763
763
763
752
752
752
752
742
732

2
3
4
5
6
7
762
742
674
742
79.11.0
764
762
714
674
742
79.11.0
764
763
742
674
733
74.41.7
742
733
78.70.5
714
752
752
704
763
742
674
742
79.11.0
764
752
673
723
64.01.2 66.21.4 65.21.0
762
742
674
742
79.11.0
764
763
80.80.3
743
763
79.11.0
742
762
714
674
742
79.11.0
764
762
714
674
742
79.11.0
764
762
714
674
742
79.11.0
764
762
742
674
742
79.11.0
764
762
742
674
742
74.41.7
773
76.30.6
682
663
623
643
722
733
714
74.51.6
742
74.41.7
773
722
682
672
622
65.71.4 61.01.3
753
783
704
744
764
733

BASE DE DATOS HE (parte 2)


Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

8
723
723
723
723
723
67.10.7
723
723
723
723
723
723
723
683
723
63.01.5
77.10.7

9
773
773
773
674
773
66.80.7
773
773
773
773
773
773
773
683
763
60.70.9
762

10
732
732
74.01.5
73.70.6
732
63.71.7
732
74.40.5
732
732
732
732
732
62.41.0
722
63.60.6
70.50.4

- 418 -

11
713
713
713
713
713
663
713
713
713
713
713
713
713
663
742
62.80.6
642

12
67.21.6
67.21.6
603
652
67.21.6
682
67.21.6
652
67.21.6
67.21.6
67.21.6
67.21.6
67.21.6
682
76.40.5
62.91.7
67.21.6

13
68.51.6
68.51.6
662
732
68.51.6
662
68.51.6
662
68.51.6
68.51.6
68.51.6
68.51.6
68.51.6
662
68.51.6
64.80.6
662

II. APNDICES DEL CAPTULO 3

Tabla 54. Eficiencias para los mtodos ARNMF&WD.


Problema PI.
BASE DE DATOS PI (parte 1)
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

1
75.240.17
75.240.17
75.240.17
75.60.2
75.50.3
78.50.4
75.50.3
75.240.17
75.50.3
75.50.3
75.50.3
75.50.3
75.240.17
75.40.3
75.240.17
66.30.6
76.30.3

2
75.720.18
76.10.2
75.720.18
74.71.1
75.720.18
69.70.7
75.720.18
76.10.2
75.720.18
75.720.18
75.720.18
75.720.18
75.720.18
75.640.19
76.10.2
69.70.7
76.70.2

3
76.760.15
76.760.15
76.760.15
75.040.19
74.41.1
67.00.5
76.760.15
73.71.4
76.760.15
76.760.15
76.760.15
76.760.15
76.760.15
74.70.2
76.760.15
69.01.1
75.81.2

4
77.00.2
77.00.2
77.00.2
74.30.3
77.00.2
69.50.7
77.00.2
77.00.2
77.00.2
77.00.2
77.00.2
77.00.2
77.00.2
74.20.8
77.00.2
70.80.9
76.90.2

BASE DE DATOS PI (parte 2)


Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

5
76.560.09
76.560.09
76.560.09
75.10.3
76.560.09
67.30.8
76.560.09
76.560.09
76.560.09
76.560.09
76.560.09
76.560.09
76.560.09
75.20.2
76.560.09
70.80.9
76.21.2

6
75.520.10
77.320.18
75.520.10
75.520.10
75.520.10
65.30.4
75.520.10
75.520.10
75.520.10
75.520.10
75.530.10
75.520.10
75.520.10
75.520.10
77.320.18
68.00.9
77.320.18

- 419 -

7
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
65.60.3
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
74.00.3
75.760.14
65.60.8
75.760.14

8
74.40
74.40
74.40
74.40
74.40
63.10.5
74.40
74.40
74.40
74.40
74.40
74.40
74.40
63.10.5
74.40
65.20
74.40

II. APNDICES DEL CAPTULO 3

Tabla 55. Eficiencias para los mtodos ARNMF&WD.


Problema VO.
BASE DE DATOS VO (parte 1)
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

1
94.40.3
94.40.3
904
93.70.2
94.40.3
93.01.6
94.40.3
94.40.3
94.40.3
94.40.3
94.40.3
94.40.3
904
94.20.4
92.81.6
91.30.6
912

2
3
4
876
923 94.60.2
876
923 94.60.2
876
923
913
93.40.2 874
903
876
923 94.60.2
91.60.3 864
844
876
923 94.60.2
876
923
913
876
923 94.60.2
876
923 94.60.2
876
923 94.60.2
876
923 94.60.2
876
923 94.60.2
95.20.2 94.40.4 913
913
923
913
91.00.2 91.70.6 91.60.3
913 94.60.4 94.70.9

5
903
913
93.60.5
91.70.3
903
89.70.3
903
93.60.5
903
903
903
903
903
913
884
92.20.6
95.30.4

6
93.50.3
913
93.50.3
903
93.50.3
873
93.50.3
913
93.50.3
93.50.3
93.50.3
93.50.3
913
923
93.80.6
90.90.4
923

7
93.80.6
93.80.6
93.60.4
903
93.80.6
843
93.80.6
93.80.6
93.80.6
93.80.6
93.80.6
93.80.6
93.80.6
923
923
91.00.5
884

8
913
913
913
93.40.3
913
93.40.5
913
913
913
913
913
913
894
95.20.3
913
863
94.50.2

BASE DE DATOS VO (parte 2)


Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

9
94.50.5
923
923
93.20.3
94.50.5
913
94.50.5
923
94.50.5
94.50.5
94.50.5
94.50.5
94.30.2
94.70.2
94.50.5
87.80.4
94.70.2

10
904
94.50.4
884
884
904
92.70.7
904
884
904
904
904
904
91.41.8
95.20.3
91.41.8
88.90.4
95.60.3

11
12
95.60.5
912
95.60.5
912
913
95.70.3
93.50.2
913
95.60.5
912
903
883
95.60.5
912
913
913
95.60.5
912
95.60.5
912
95.60.5
912
95.60.5
912
95.60.5
933
903
883
95.60.5
933
89.00.5
863
94.90.2 93.51.6

- 420 -

13
14
15
16
922
940
930 88.81.7
922
940
930 88.81.7
922
940
872 88.81.7
913
940
930 88.81.7
922
940
930 88.81.7
91.30.4 90.10.6 90.20.2 690
922
940
930 88.81.7
922
940
872 88.81.7
922
940
930 88.81.7
922
940
930 88.81.7
922
940
930 88.81.7
922
940
930 88.81.7
922
940
930 88.81.7
91.30.4
910
90.20.2 690
922
940
930 88.81.7
873
89.100.10 890
840
922
92.900.17 872
900

II. APNDICES DEL CAPTULO 3

Tabla 56. Eficiencias para los mtodos ARNMF&WD.


Problema WD.
BASE DE DATOS WD (parte 1)
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

1
952
952
953
953
952
98.70.6
952
952
952
952
952
952
952
952
96.41.6
953
98.70.6

2
98.750.19
98.750.19
97.71.0
953
98.880.13
96.01.5
98.750.19
98.10.4
98.750.19
98.750.19
98.750.19
98.750.19
98.10.4
98.10.4
98.690.17
925
96.01.5

3
98.880.16
98.880.16
97.80.8
953
925
96.41.9
98.880.16
97.80.8
98.880.16
98.880.16
98.880.16
98.880.16
98.10.4
97.80.8
925
953
99.10.3

4
99.250.08
99.250.08
99.060.10
953
98.880.08
98.250.16
99.250.08
98.630.13
99.250.08
99.250.08
99.30.08
99.250.08
98.60.2
98.30.4
98.40.4
98.30.5
963

5
953
953
98.60.2
963
98.50.2
99.310.06
953
953
953
953
953
953
98.60.2
98.630.18
925
953
953

6
98.60.3
98.60.3
98.880.13
98.00.4
98.40.5
924
98.60.3
98.880.13
98.60.3
98.60.3
98.60.3
98.60.3
98.60.3
99.060.14
925
98.20.4
98.630.13

11
99.000.17
99.000.17
953
97.90.4
97.91.0
933
99.000.17
953
99.000.17
99.000.17
99.000.17
99.000.17
953
98.690.17
953
923
95.20.3

12
98.60.3
98.60.3
953
953
97.61.0
914
98.60.3
953
98.60.3
98.60.3
98.60.3
98.60.3
98.500.19
98.810.17
99.130.17
943
894

BASE DE DATOS WD (parte 2)


Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

7
98.630.18
98.630.18
98.940.13
885
925
953
98.620.18
98.940.13
98.620.18
98.620.18
98.620.18
98.620.18
953
963
963
885
96.20.8

8
97.90.8
97.90.8
953
953
98.10.9
953
97.90.8
98.30.6
97.90.8
97.90.8
97.90.8
97.90.8
98.30.3
99.130.10
99.380.16
914
875

9
97.31.2
97.31.2
99.060.14
98.380.19
963
944
97.31.2
99.250.13
97.31.2
97.31.2
97.31.2
97.31.2
98.750.16
934
924
915
943

- 421 -

10
963
963
98.50.6
98.500.19
99.060.14
943
963
98.70.3
963
963
963
963
98.500.19
98.60.2
99.10.3
914
933

II. APNDICES DEL CAPTULO 3

Tabla 56. Eficiencias para los mtodos ARNMF&WD.


Problema WD. (Continuacin).
BASE DE DATOS WD (parte 3)
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

13
97.41.7
97.41.7
99.250.13
97.80.5
98.940.16
845
97.41.7
99.380.16
97.41.7
97.41.7
97.41.7
97.41.7
98.310.19
98.880.08
97.41.7
855
923

14
98.10.9
98.10.9
952
97.40.6
953
96.90.3
98.10.9
953
98.10.9
98.10.9
98.10.9
98.10.9
98.690.17
953
98.940.10
913
903

15
97.21.7
97.21.7
98.60.2
875
97.90.7
894
97.21.7
98.60.2
97.21.7
97.21.7
97.21.7
97.21.7
98.630.16
885
97.21.7
884
92.10.8

16
925
925
98.20.2
96.70.3
98.940.13
913
925
98.20.2
925
925
925
925
98.30.3
953
98.810.17
884
873

17
953
953
952
933
98.880.13
865
953
952
953
953
953
953
934
923
923
913
93.380.10

18
906
906
98.560.10
96.20.3
98.630.16
93.41.1
906
98.560.10
906
906
906
906
953
98.560.10
885
903
874

23
98.30.3
953
912
924
98.60.2
823
98.30.3
912
98.30.3
98.30.3
98.30.3
98.30.3
915
912
96.81.7
772
82.80.7

24
952
952
912
875
98.440.17
852
952
98.30.2
952
952
952
952
904
98.30.2
94.21.8
79.30.4
773

BASE DE DATOS WD (parte 4)


Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

19
99.630.17
99.630.17
98.940.10
95.60.3
99.630.17
933
99.630.17
98.940.10
99.630.17
99.630.17
99.630.17
99.630.17
953
952
962
91.21.5
92.51.4

20
98.60.4
98.60.4
94.61.8
893
934
92.310.16
98.60.4
94.61.8
98.60.4
98.60.4
98.60.4
98.60.4
98.20.2
94.61.8
98.60.4
80.70.5
863

21
97.11.7
97.11.7
98.500.19
923
97.40.5
85.31.8
97.11.7
98.500.19
97.11.7
97.11.7
97.11.7
97.11.7
953
98.500.19
95.81.7
78.81.6
85.31.8

- 422 -

22
99.130.17
99.130.17
953
904
98.380.17
862
99.130.17
953
99.130.17
99.130.17
99.130.17
99.130.17
97.90.3
99.000.10
962
78.11.9
822

II. APNDICES DEL CAPTULO 3

Tabla 56. Eficiencias para los mtodos ARNMF&WD.


Problema WD. (Continuacin).
BASE DE DATOS WD (parte 5)
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU

25
98.440.14
98.440.14
96.61.7
923
913
853
98.440.14
96.61.7
98.440.14
98.440.14
98.440.14
98.440.14
913
953
93.90.2
78.11.6
81.70.7

26
98.310.13
98.310.13
942
923
904
863
98.310.13
942
98.310.13
98.310.13
98.310.13
98.310.13
912
942
903
762
80.91.8

27
98.000.16
98.000.16
874
94.880.13
923
872
98.000.16
874
98.000.16
98.000.16
98.000.16
98.000.16
94.880.13
98.500.14
874
78.560.13
74.21.2

- 423 -

28
94.500.13
94.500.13
892
892
864
843
94.500.13
892
94.500.13
94.500.13
94.500.13
94.500.13
923
892
864
76.81.4
75.51.2

29
92.30.3
92.30.3
893
75.71.9
92.30.3
843
92.30.3
893
92.30.3
92.30.3
92.30.3
92.30.3
893
893
75.71.9
76.91.4
68.10.9

30
71.30.3
71.30.3
71.30.3
71.30.3
71.30.3
78.060.06
71.30.3
71.30.3
71.30.3
71.30.3
71.30.3
71.30.3
71.30.3
71.30.3
71.30.3
62.80.5
64.10.7

II. APNDICES DEL CAPTULO 3

II.5. Comparacin entre mtodos ARNMF y ACE


Tabla 57. Comparacin entre mtodos ARNMF y ACE.
TEKA Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
CIB
Iguales:
Peor BL2:
TEKE Mejor BL2:
Iguales:
Peor BL2:
TEKC Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
DEV
Iguales:
Peor BL2:
DER3 Mejor BL2:
Iguales:
Peor BL2:
TEKB Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
TEK
Iguales:
Peor BL2:
Mejor BL2:
BL1
Iguales:
Peor BL2:
Mejor BL2:
CLO
Iguales:
Peor BL2:
Mejor BL2:
PRI
Iguales:
Peor BL2:
Mejor BL2:
SAN
Iguales:
Peor BL2:
DER2 Mejor BL2:
Iguales:
Peor BL2:
MAO Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
UTA
Iguales:
Peor BL2:
Mejor BL2:
LEE
Iguales:
Peor BL2:
BOW Mejor BL2:
Iguales:
Peor BL2:
YOU Mejor BL2:
Iguales:
Peor BL2:

Mtodo BL2

LE
AB, BL, BN, BU, D1, GL, HE, M1, M2, M3, PI, VO,
CR, WD
AB, BU, CR, GL, HE, M1, PI
D1, M2, M3
BL, BN, VO, WD
BU, D1, GL, HE, PI, VO, WD
M2, M3,
AB, BL, LE, M1, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BL, BN
BN, CR, WD
AB, BU, D1, GL, HE, M1, M2, M3, PI, VO
BL, LE
BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
AB, BL, BN
BN, GL, HE, VO, WD
AB, BU, D1, M1, M2, M3, PI
BL, CR, LE
AB, BN, BU, CR, D1, GL, HE, PI, VO, WD
M1, M2, M3
BL, LE
BN, CR, D1, HE, LE, PI, VO, WD
AB, BU, GL, M1, M2, M3
BL
BN, CR, D1, HE, LE, PI, VO, WD
BU, GL, M1, M2, M3
AB, BL
BN, CR, D1, HE, LE, PI, VO, WD
AB, BU, GL, M1, M2, M3
BL
BN, CR, HE, PI, VO, WD
AB, BU, D1, GL, LE, M1, M2, M3
BL
BN, CR, GL, LE, PI, VO
BU, D1, M1, M2, M3
AB, BL, HE, WD
CR, HE, PI
BL, BU, D1, GL, M1, M2, M3
AB, BN, LE, VO, WD
CR, HE
AB, BU, D1, GL, M1, M2, M3, PI
BL, BN, LE, VO, WD
AB, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BL
AB, BN, BU, CR, D1, HE, LE, M1, PI, VO, WD
GL, M2, M3
BL
CR, HE, PI, WD
M1, M2
BN, LE, VO

- 424 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo BL2

BA 0.5 Mejor BL2:

BU, CR, HE, LE, VO, WD


AB, D1, GL, M2, M3, PI
BL, BN, M1

BA 0.6 Mejor BL2:

BU, CR, HE, LE, VO, WD


AB, D1, GL, M2, M3, PI
BL, BN, M1
BU, CR, HE, LE, VO, WD
AB, D1, GL, M2, M3, PI
BL, BN, M1
BU, CR, HE, LE, VO, WD
AB, D1, GL, M2, M3, PI
BL, BN, M1
AB, BU, CR, HE, LE, VO, WD
D1, GL, M2, M3, PI
BL, BN, M1
AB, BU, CR, HE, LE, VO, WD
D1, GL, M2, M3, PI
BL, BN, M1
BN, BU, CR, HE, LE, VO, WD
D1, GL, M1, M2, M3, PI
AB, BL
AB, BN, CR, GL, LE, VO, WD
D1, HE, M1, M2, M3, PI
BL, BU
GL, HE, VO, WD
D1, M2, M3
AB, BL, BU, M1, PI
CR, HE, LE, M1, PI, VO
M2, M3
BN, BU, WD
BN, CR, D1, GL, HE, LE, M1, M3, PI, VO
BU, M2
AB, BL, WD
BU, CR, D1, HE, M3, PI, WD

Iguales:
Peor BL2:

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:

AB, BL, M1, M2

- 425 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).

Mejor TEKA:
Iguales:
Peor TEKA:
TEKE Mejor TEKA:
Iguales:
Peor TEKA:
TEKC Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
DEV
Iguales:
Peor TEKA:
DER3 Mejor TEKA:
Iguales:
Peor TEKA:
TEKB Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
TEK
Iguales:
Peor TEKA:
Mejor TEKA:
BL1
Iguales:
Peor TEKA:
Mejor TEKA:
CLO
Iguales:
Peor TEKA:
Mejor TEKA:
PRI
Iguales:
Peor TEKA:
Mejor TEKA:
SAN
Iguales:
Peor TEKA:
DER2 Mejor TEKA:
Iguales:
Peor TEKA:
MAO Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
UTA
Iguales:
Peor TEKA:
Mejor TEKA:
LEE
Iguales:
Peor TEKA:
BOW Mejor TEKA:
Iguales:
Peor TEKA:
YOU Mejor TEKA:
Iguales:
Peor TEKA:

CIB

Mtodo TEKA

AB, BU, CR, GL, HE, PI


BL, D1, M1, M2, M3, WD
BN, LE, VO
BU, D1, GL, HE, PI, VO
BL, M3
AB, M1, M2, WD
AB, BU, CR, D1, GL, HE, M1, M3, PI, VO, WD
BL, M2
BN, LE
CR, WD
AB, BL, BN, BU, D1, GL, HE, M1, M2, M3, PI, VO
LE
BU, CR, D1, GL, HE, M1, M3, PI, VO, WD
BL, M2
AB, BN, LE
BN, CR, GL, HE, LE, VO
AB, BL, BU, D1, M1, M2, M3, PI
WD
AB, BN, BU, CR, D1, GL, HE, PI, VO, WD
BL, M1, M2, M3
LE
BN, CR, D1, HE, PI, VO
AB, BL, BU, M1, M2, M3, WD
LE, WD
BN, CR, D1, HE, PI, VO
BL, BU, GL, M1, M2, M3
AB, LE, WD
BN, CR, D1, HE, PI, VO
AB, BL, BU, GL, M1, M2, M3
LE, WD
BL, BN, CR, HE, LE, PI, VO
AB, BU, D1, GL, M1, M2, M3
WD
BN, CR, GL, HE, PI, VO, WD
BL, BU, D1, M1, M2, M3
AB, HE, LE
CR, HE, PI
BL, BU, D1, GL, M1, M2, M3, WD
AB, BN, LE, VO
CR, HE
AB, BL, BU, D1, GL, M1, M2, M3, PI
BN, LE, VO, WD
AB, BL, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
AB, BN, BU, CR, D1, HE, M1, PI, VO, WD
BL, GL, M2, M3
LE
CR, HE, LE, PI, WD
M1, M2
BN, VO

- 426 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo TEKA

BA 0.5 Mejor TEKA:

BU, CR, HE, VO, WD


AB, BL, D1, GL, M2, M3, PI
BN, LE, M1

BA 0.6 Mejor TEKA:

BU, CR, HE, VO, WD


AB, BL, D1, GL, M2, M3, PI
BN, LE, M1
BU, CR, HE, VO, WD
AB, BL, D1, GL, M2, M3, PI
BN, LE, M1
BU, CR, HE, VO, WD
AB, BL, D1, GL, M2, M3, PI
BN, LE, M1
AB, BU, CR, HE, VO, WD
BL, D1, GL, M2, M3, PI
BN, LE, M1
AB, BU, CR, HE, VO, WD
BL, D1, GL, M2, M3, PI
BN, LE, M1
BN, BU, CR, HE, LE, VO, WD
BL, D1, GL, M1, M2, M3, PI
AB
AB, BN, CR, GL, LE, VO, WD
BL, D1, HE, M1, M2, M3, PI
BU
GL, HE, VO, WD
BL, D1, M2, M3
AB, BU, M1, PI
CR, HE, M1, PI, VO
M2, M3
BN, BU, LE
BL, BN, CR, D1, GL, HE, M1, M3, PI, VO, WD
BU, M2
AB, LE
BU, CR, D1, HE, M3, PI, WD
BL
AB, M1, M2

Iguales:
Peor TEKA:

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:

- 427 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).

TEKE Mejor CIB:


Iguales:
Peor CIB:
TEKC Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
DEV
Iguales:
Peor CIB:
DER3 Mejor CIB:
Iguales:
Peor CIB:
TEKB Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
TEK
Iguales:
Peor CIB:
Mejor CIB:
BL1
Iguales:
Peor CIB:
Mejor CIB:
CLO
Iguales:
Peor CIB:
Mejor CIB:
PRI
Iguales:
Peor CIB:
Mejor CIB:
SAN
Iguales:
Peor CIB:
DER2 Mejor CIB:
Iguales:
Peor CIB:
MAO Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
UTA
Iguales:
Peor CIB:
Mejor CIB:
LEE
Iguales:
Peor CIB:
BOW Mejor CIB:
Iguales:
Peor CIB:
YOU Mejor CIB:
Iguales:
Peor CIB:

Mtodo CIB

BU, D1, HE, PI, VO


BL, M3
AB, GL, M1, M2, WD
AB, BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
BL, HE, M2
BN
BN, LE, VO, WD
BL, D1, M2, M3
AB, BU, CR, GL, HE, M1, PI
BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BL, M2
AB
BN, LE, VO
BL, D1, M1, M2, M3
AB, BU, CR, GL, HE, PI, WD
BN, D1, LE, PI, VO
AB, BL, BU, M2, M3
CR, GL, HE, M1, WD
BN, D1, VO
BL, LE, M2, M3
AB, BU, CR, GL, HE, M1, PI, WD
BN, D1, VO
BL, LE, M2, M3
AB, BU, CR, GL, HE, M1, PI, WD
BN, D1, VO
BL, LE, M2, M3
AB, BU, CR, GL, HE, M1, PI, WD
BL, BN, BU, GL, LE, VO
D1, M2, M3
AB, CR, HE, M1, PI, WD
BN, LE, WD
BL, D1, M1, M2, M3
AB, BU, CR, GL, HE, PI, VO
LE, PI
BL, BN, D1, HE, M1, M2, M3, WD
AB, BU, CR, GL, VO
HE
BL, D1, M1, M2, M3
AB, BN, BU, CR, GL, LE, PI, VO, WD
AB, BL, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
AB, GL, M2
BL, M3
BU, D1, HE, M1, PI, VO, WD
LE
M1, M2, VO
BN, CR, HE, PI, WD

- 428 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo CIB

BA 0.5 Mejor CIB:

BU, HE, LE, VO, WD


BL, M2, M3
AB, BN, CR, D1, GL, M1, PI

BA 0.6 Mejor CIB:

BU, HE, LE, VO, WD


BL, M2, M3
AB, BN, CR, D1, GL, M1, PI
BU, HE, LE, VO, WD
BL, M2, M3
AB, BN, CR, D1, GL, M1, PI
BU, HE, LE, VO, WD
BL, M2, M3
AB, BN, CR, D1, GL, M1, PI
BU, HE, LE, VO, WD
BL, M2, M3
AB, BN, CR, D1, GL, M1, PI
BU, HE, LE, VO, WD
BL, M2, M3
AB, BN, CR, D1, GL, M1, PI
BN, BU, HE, LE, VO, WD
BL, M1, M2, M3
AB, CR, D1, GL, PI
AB, BN, GL, LE, VO, WD
BL, M1, M2, M3
BU, CR, D1, HE, PI
GL, VO, WD
BL, M2, M3
AB, BU, D1, HE, M1, PI
BN, HE, LE, M1, PI, VO
M2, M3
BU, CR, WD
BL, BN, CR, D1, GL, HE, LE, M1, M3, PI, VO
M2
AB, BU, WD
CR, D1, HE, M3, PI, WD
BL
AB, BU, M1, M2

Iguales:
Peor CIB:

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:

- 429 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).

TEKC Mejor TEKE:


DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU

Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:

Mtodo TEKE

AB, BU, D1, GL, M1, M2, M3, WD


BL, M2
HE, PI, VO
AB, M1, M2
BL, M3
BU, D1, GL, HE, PI, VO, WD
AB, BU, GL, HE, M1, M2, M3, WD
BL
D1, PI, VO
AB, HE, M1, M2
BL, M3
BU, D1, GL, PI, VO, WD
AB, M1, M2
BL, M3
BU, D1, GL, HE, PI, VO, WD
HE, M1, M2
BL, M3
AB, BU, D1, GL, PI, VO, WD
HE, M1, M2
BL, M3
AB, BU, D1, GL, PI, VO, WD
M1, M2
BL, M3
AB, BU, D1, GL, HE, PI, VO, WD
AB, BL, BU, GL, HE, M1, M2
M3
D1, PI, VO, WD
M1, M2, WD
BL, M3
AB, BU, D1, GL, HE, PI, VO
AB, M1, M2, WD
BL, M3
BU, D1, GL, HE, PI, VO
HE, M1, M2
BL, M3
AB, BU, D1, GL, PI, VO, WD
AB, BL, BU, D1, GL, HE, M1, M2, M3, PI, VO, WD
AB, GL, M2
BL, M3
BU, D1, HE, M1, PI, VO, WD
M1, M2
HE, PI, VO, WD

- 430 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo TEKE

BA 0.5 Mejor TEKE:

AB, HE, M2, WD


BL, M3
BU, D1, GL, M1, PI, VO

BA 0.6 Mejor TEKE:

AB, HE, M2, WD


BL, M3
BU, D1, GL, M1, PI, VO
AB, HE, M2, WD
BL, M3
BU, D1, GL, M1, PI, VO
AB, HE, M2, WD
BL, M3
BU, D1, GL, M1, PI, VO
AB, HE, M2, WD
BL, M3
BU, D1, GL, M1, PI, VO
AB, HE, M2, WD
BL, M3
BU, D1, GL, M1, PI, VO
AB, HE, M1, M2, WD
BL, M3
BU, D1, GL, PI, VO
AB, M1, M2, WD
BL, M3
BU, D1, GL, HE, PI, VO
GL, M2, WD
BL, M3
AB, BU, D1, HE, M1, PI, VO
M1, M2
M3
BU, HE, PI, VO, WD
AB, BL, GL, HE, M1, M2, M3, PI, VO, WD

Iguales:
Peor TEKE:

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:

BU, D1
AB, M1, M2, M3, WD
BL, D1
BU, HE, PI

- 431 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).

DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU

Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:

Mtodo TEKC

BN, WD
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO
AB, BN, CR, GL, HE, M1, M3, PI, VO
BL, BU, M2
D1, LE, VO
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BL, BN
M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN
AB, BL, HE, M2
BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
HE
BL, BN, M2
AB, BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
AB, BL, BN, CR, GL, HE, LE, M1, M3, PI, VO, WD
BU, D1, M2
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN
M2
CR, HE, LE, M1, PI, VO, WD

- 432 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo TEKC

BA 0.5 Mejor TEKC:

BN, HE, WD
BL, BU, M2
AB, CR, D1, GL, LE, M1, M3, PI, VO

BA 0.6 Mejor TEKC:

BN, HE, VO, WD


BL, BU, M2
AB, CR, D1, GL, LE, M1, M3, PI
BN, HE, VO, WD
BL, BU, M2
AB, CR, D1, GL, LE, M1, M3, PI
BU, HE, VO, WD
BL, BU, M2
AB, CR, D1, GL, LE, M1, M3, PI
BN, HE, WD
BL, BU, M2, VO
AB, CR, D1, GL, LE, M1, M3, PI
BN, HE, WD
BL, BU, M2
AB, CR, D1, GL, LE, M1, M3, PI, VO
BN, HE, M1, WD
AB, BL, M2
BU, CR, D1, GL, LE, M3, PI, VO
BN, M1, WD
BL, GL, M2
AB, BU, CR, D1, HE, LE, M3, PI, VO
GL, WD
BL, M2
AB, BU, D1, M1, M3, PI, VO
BN, HE
M2
BU, CR, LE, M1, M3, PI, VO, WD
BL, BN, CR, GL, HE, M1, M3, PI, VO
M2
AB, BU, D1, LE, WD
AB, CR, HE, M3, WD
BL, D1, M1
BU, M2, PI

Iguales:
Peor TEKC:

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:

- 433 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).

DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU

Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:

Mtodo DEV

BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BL, M2
AB, BN
BN, GL, HE, LE, VO
AB, BL, BU, D1, M1, M2, M3, PI
CR, WD
AB, BN, BU, D1, GL, HE, PI, VO, WD
BL, CR, LE, M1, M2, M3
BN, D1, HE, LE, PI, VO
AB, BL, BU, CR, GL, M1, M2, M3
WD
BN, D1, HE, LE, PI, VO
BL, BU, CR, GL, M1, M2, M3
AB, WD
BN, D1, HE, LE, PI, VO
AB, BL, BU, CR, GL, M1, M2, M3
WD
BN, HE, LE, PI, VO
AB, BU, CR, D1, GL, M1, M2, M3
BL, WD
BN, GL, LE, PI, VO
BL, BU, D1, M1, M2, M3
AB, CR, HE, WD
CR, D1, HE, PI
BL, BU, GL, M1, M2, M3
AB, BN, LE, VO, WD
HE, LE
AB, BL, BU, D1, GL, M1, M2, M3, PI
BN, CR, VO, WD
AB, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BL
AB, BN, BU, D1, HE, LE, M1, PI, VO
BL, GL, M2, M3
CR, WD
HE, LE, PI, WD
CR, M1, M2
BN, VO

- 434 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo DEV

BA 0.5 Mejor DEV:

BU, HE, LE, VO, WD


AB, BL, D1, GL, M2, M3, PI
BN, CR, M1

BA 0.6 Mejor DEV:

BU, HE, LE, VO, WD


AB, BL, D1, GL, M2, M3, PI
BN, CR, M1
BU, HE, LE, VO, WD
AB, BL, D1, GL, M2, M3, PI
BN, CR, M1
BU, HE, LE, VO, WD
AB, BL, D1, GL, M2, M3, PI
BN, CR, M1
AB, BU, HE, LE, VO, WD
BL, D1, GL, M2, M3, PI
BN, CR, M1
AB, BU, HE, LE, VO, WD
BL, D1, GL, M2, M3, PI
BN, CR, M1
BN, BU, HE, LE, VO, WD
BL, CR, D1, GL, M1, M2, M3, PI
AB
AB, GL, LE, VO, WD
BL, D1, HE, M1, M2, M3, PI
BN, BU, CR
GL, HE, VO, WD
BL, D1, M2, M3
AB, BU, M1, PI
HE, LE, M1, PI, VO
M2, M3
BN, BU, CR, WD
BL, BN, CR, D1, GL, HE, LE, M1, M3, PI, VO
BU, M2
AB, WD
BU, CR, D1, HE, M3, PI, WD
BL
AB, M1, M2

Iguales:
Peor DEV:

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:

- 435 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).

TEKB Mejor DER3:


TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU

Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:

MtodoDER3

AB, BN, LE
BL, M2
BU, CR, D1, GL, HE, M1, M3, PI, VO, WD
AB, BN
BL, M2
BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
AB, BN
BL, HE, M2
BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
AB, BN
BL, HE, M2
BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
AB, BL, BN, LE
M2
BU, CR, D1, GL, HE, M1, M3, PI, VO, WD
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BL, M2
AB, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
AB
BL, M2
BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BL, CR, D1, GL, HE, LE, M1, M3, PI
BU, M2
AB, BN, VO, WD
AB, BN
BL, M2
BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
LE
M2
BN, CR, HE, M1, PI, VO, WD

- 436 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo DER3

BA 0.5 Mejor DER3:

AB
BL, BU, LE, M2, WD
BN, CR, D1, GL, HE, M1, M3, PI, VO

BA 0.6 Mejor DER3:

AB, HE
BL, BU, LE, M2, WD
BN, CR, D1, GL, M1, M3, PI, VO
AB, HE
BL, BU, LE, M2, WD
BN, CR, D1, GL, M1, M3, PI, VO
AB, HE
BL, BU, LE, M2, WD
BN, CR, D1, GL, M1, M3, PI, VO
AB, HE
BL, BU, LE, M2, WD
BN, CR, D1, GL, M1, M3, PI, VO
AB, HE
BL, BU, LE, M2, WD
BN, CR, D1, GL, M1, 3, PI, VO
LE, WD
BL, HE, M2
AB, BN, BU, CR, D1, GL, M1, M3, PI, VO
AB, BN, LE
BL, M2
BU, CR, D1, GL, HE, M1, M3, PI, VO, WD
GL
BL, M2
AB, BU, D1, HE, M1, M3, PI, VO, WD

Iguales:
Peor DER3:

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:

M2
BN, BU, CR, HE, LE, M1, M3, PI, VO, WD
BL, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BN, BU, LE, WD
CR, D1, HE, PI
BL
AB, BU, M1, M2, M3, WD

- 437 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).

TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU

Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:

MtodoTEKB

AB, BN, BU, CR, D1, HE, LE, PI, VO, WD


BL, GL, M1, M2, M3
BN, CR, D1, HE, PI, VO
AB, BL, BU, M1, M2, M3, WD
GL, LE
BN, CR, D1, PI, VO
BL, BU, HE, M1, M2, M3, WD
AB, GL, LE
BN, CR, D1, PI, VO
AB, BL, BU, HE, M1, M2, M3, WD
GL, LE
BL, BN, CR, PI, VO
AB, BU, D1, HE, LE, M1, M2, M3, WD
GL
BN, CR, PI, WD
BL, BU, D1, GL, M1, M2, M3
AB, HE, LE, VO
CR, HE, PI, WD
BL, BU, D1, M1, M2, M3
AB, BN, GL, LE, VO
AB, BL, BU, D1, M1, M2, M3, PI
BN, CR, GL, HE, LE, VO, WD
AB, BL, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
AB, BN, BU, D1, M1, PI
BL, M2, M3, WD
CR, GL, HE, LE, VO
CR, HE, PI, WD
LE, M1, M2
BN, VO

- 438 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo TEKB

BA 0.5 Mejor TEKB:

BU, CR, LE, VO, WD


AB, BL, D1, HE, M2, M3, PI
BN, GL, M1

BA 0.6 Mejor TEKB:

BU, CR, HE, LE, VO, WD


AB, BL, D1, M2, M3, PI
BN, GL, M1
BU, CR, HE, LE, VO, WD
AB, BL, D1, M2, M3, PI
BN, GL, M1
BU, CR, HE, LE, VO, WD
AB, BL, D1, M2, M3, PI
BN, GL, M1
AB, BU, CR, HE, LE, VO, WD
BL, D1, M2, M3, PI
BN, GL, M1
AB, BU, CR, HE, LE, VO, WD
BL, D1, M2, M3, PI
BN, GL, M1
BU, CR, HE, LE, VO, WD
BL, D1, M1, M2, M3, PI
AB, BN, GL
AB, CR, GL, LE, VO, WD
BL, D1, M1, M2, M3, PI
BN, BU, HE
GL, HE, VO, WD
BL, D1, M2, M3
AB, BU, M1, PI
CR, HE, LE, M1, PI, WD
M2, M3
BN, BU, VO
BL, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BU, M2
AB, BN
BU, CR, D1, HE, M3, PI, WD
BL
AB, M1, M2

Iguales:
Peor TEKB:

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:

- 439 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).

BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU

Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:

MtodoTEK

BN, HE
BL, CR, D1, M1, M2, M3
AB, BU, GL, LE, PI, VO, WD
BN, VO,
BL, CR, D1, M1, M2, M3
AB, BU, GL, HE, LE, PI, WD
BN, HE
BL, CR, D1, M1, M2, M3
AB, BU, GL, LE, PI, VO, WD
BN
CR, M1, M2, M3
AB, BL, BU, D1, GL, HE, LE, PI, VO, WD
WD
BL, GL, M1, M2, M3
AB, BN, BU, CR, D1, HE, LE, PI, VO
CR, HE, WD
BL, M1, M2, M3, PI
AB, BN, BU, D1, GL, LE, VO
HE
BL, M1, M2, M3
AB, BN, BU, CR, D1, GL, LE, PI, VO, WD
AB, BL, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BN
BN, HE, M1
AB, BL, BU, D1, M2, M3, VO
CR, GL, LE, PI, WD
WD
CR, HE, M1, M2
BN, LE, PI, VO

- 440 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo TEK

BA 0.5 Mejor TEK:

BU, HE, WD
BL, M2, M3
AB, BN, CR, D1, GL, LE, M1, PI, VO

BA 0.6 Mejor TEK:

BU, HE, VO, WD


BL, M2, M3
AB, BN, CR, D1, GL, LE, M1, PI
BU, HE, VO, WD
BL, M2, M3
AB, BN, D1, GL, LE, M1, PI
BU, HE, VO, WD
BL, M2, M3
AB, BN, CR, D1, GL, LE, M1, PI
BU, HE, VO, WD
BL, M2, M3
AB, BN, CR, D1, GL, LE, M1, PI
BU, HE, WD
BL, M2, M3
AB, BN, CR, D1, GL, LE, M1, PI, VO
BU, HE, LE, VO, WD
BL, CR, M1, M2, M3
AB, BN, D1, GL, PI
AB, GL, LE, VO, WD
BL, M1, M2, M3
BN, BU, CR, D1, HE, PI
GL, HE, WD
BL, M2, M3
AB, BU, D1, M1, PI, VO
HE, LE, M1, VO, WD
M2, M3, PI
BN, BU, CR
BL, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
AB, BN, BU
CR, D1, HE, M3, PI, WD
BL
AB, BU, M1, M2

Iguales:
Peor TEK:

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:

- 441 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).

CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU

Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:

MtodoBL1
BL, BN, BU, CR, D1, GL, LE, M1, M2, M3, PI, VO, WD
AB, HE
BN
AB, BL, BU, CR, D1, GL, HE, LE, M1, M2, M3, PI, VO, WD
BL, HE, LE, PI
AB, BN, BU, CR, GL, M1, M2, M3, VO, WD
D1
GL, WD
BL, BU, LE, M1, M2, M3, PI
BN, CR, D1, HE, VO
AB, CR, HE, PI, WD
BL, BU, D1, GL, M1, M2, M3
BN, LE, VO
AB, BL, BU, GL, LE, M1, M2, M3
BN, CR, D1, HE, PI, VO, WD
AB, BL, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BN
AB, BU, M1, PI
BL, BN, D1, GL, M2, M3, WD
CR, HE, LE, VO
PI, WD
CR, M1, M2
BN, HE, LE, VO

- 442 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo BL1

BA 0.5 Mejor BL1:

BU, LE, VO, WD


AB, BL, GL, M2, M3
BN, CR, D1, HE, M1, PI

BA 0.6 Mejor BL1:

BU, HE, LE, VO, WD


AB, BL, GL, M2, M3
BN, CR, D1, M1, PI
BU, HE, LE, VO, WD
AB, BL, GL, M2, M3
BN, CR, D1, M1, PI
BU, HE, LE, VO, WD
AB, BL, GL, M2, M3
BN, CR, D1, M1, PI
AB, BU, HE, LE, VO, WD
BL, GL, M2, M3
BN, CR, D1, M1, PI
AB, BU, HE, LE, VO, WD
BL, GL, M2, M3
BN, CR, D1, M1, PI
AB, BU, LE, VO, WD
BL, CR, GL, HE, M1, M2, M3
BN, D1, PI
AB, GL, LE, VO, WD
BL, M1, M2, M3
BN, BU, CR, D1, HE, PI
GL, VO, WD
BL, M2, M3
AB, BU, D1, HE, M1, PI
HE, M1, PI, WD
M2, M3
BN, BU, CR, LE, VO
BL, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BU, M2
AB, BN
AB, BU, CR, D1, HE, M3, PI, WD
BL
M1, M2

Iguales:
Peor BL1:

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:

- 443 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).

PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU

Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:

MtodoCLO

AB, BN, HE
BL, BU, CR, D1, GL, LE, M1, M2, M3, PI, VO, WD
AB, LE, PI
BN, BU, CR, GL, HE, M1, M2, M3, VO, WD
BL, D1
AB, GL, WD
BL, BU, LE, M1, M2, M3, PI
BN, CR, D1, HE, VO
AB, CR, HE, PI, WD
BL, BU, D1, GL, M1, M2, M3
BN, LE, VO
AB
BL, BU, GL, LE, M1, M2, M3
BN, CR, D1, HE, PI, VO, WD
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BL, BN
AB, BU, M1, PI
BL, BN, D1, GL, M2, M3, WD
CR, HE, LE, VO
HE, PI, WD
CR, M1, M2
BN, LE, VO

- 444 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo CLO

BA 0.5 Mejor CLO:

AB, BU, LE, WD


BL, GL, HE, M2, M3
BN, CR, D1, M1, PI, VO

BA 0.6 Mejor CLO:

AB, BU, HE, LE, VO, WD


BL, GL, M2, M3
BN, CR, D1, M1, PI
AB, BU, HE, LE, VO, WD
BL, GL, M2, M3
BN, CR, D1, M1, PI
AB, BU, HE, LE, VO, WD
BL, GL, M2, M3
BN, CR, D1, M1, PI
AB, BU, HE, LE, VO, WD
BL, GL, M2, M3
BN, CR, D1, M1, PI
AB, BU, HE, LE, WD
BL, GL, M2, M3
BN, CR, D1, M1, PI, VO
AB, BU, HE, LE, WD
BL, CR, GL, M1, M2, M3
BN, D1, PI, VO
AB, GL, LE, WD
BL, M1, M2, M3
BN, BU, CR, D1, HE, PI, VO
AB, GL, HE, VO, WD
BL, M2, M3
BU, D1, M1, PI
HE, M1, PI, WD
M2, M3
BN, BU, CR, LE, VO
AB, BL, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BU, M2
BN
AB, BU, CR, D1, HE, M3, PI, WD
BL
M1, M2

Iguales:
Peor CLO:

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:

- 445 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo PRI

Mejor PRI:
Iguales:
Peor PRI:
DER2 Mejor PRI:
Iguales:
Peor PRI:
MAO Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
UTA
Iguales:
Peor PRI:
Mejor PRI:
LEE
Iguales:
Peor PRI:
BOW Mejor PRI:
Iguales:
Peor PRI:
YOU Mejor PRI:
Iguales:
Peor PRI:
BA 0.5 Mejor PRI:
Iguales:
Peor PRI:

BN, LE, PI
AB, BU, CR, GL, M1, M2, M3, VO, WD
BL, D1, HE
AB, GL, WD
BL, BU, LE, M1, M2, M3, PI
BN, CR, D1, HE, VO
AB, CR, HE, PI, WD
BL, BU, D1, GL, M1, M2, M3
BN, LE, VO

BA 0.6 Mejor PRI:

BU, HE, LE, VO, WD


AB, BL, GL, M2, M3
BN, CR, D1, M1, PI
BU, HE, LE, VO, WD
AB, BL, GL, M2, M3
BN, CR, D1, M1, PI
BU, HE, LE, VO, WD
AB, BL, GL, M2, M3
BN, CR, D1, M1, PI
AB, BU, HE, LE, VO, WD
BL, GL, M2, M3
BN, CR, D1, M1, PI
AB, BU, HE, LE, VO, WD
BL, GL, M2, M3
BN, CR, D1, M1, PI
AB, BU, LE, VO, WD
BL, CR, GL, HE, M1, M2, M3
BN, D1, PI
AB, GL, LE, VO, WD
BL, M1, M2, M3
BN, BU, CR, D1, HE, PI
GL, VO, WD
BL, M2, M3
AB, BU, D1, HE, M1, PI
HE, M1, PI, WD
M2, M3
BN, BU, CR, LE, VO
BL, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BU, M2
AB, BN
AB, BU, CR, D1, HE, M3, PI, WD
BL
M1, M2

SAN

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:

AB, BL, BU, GL, LE, M1, M2, M3


BN, CR, D1, HE, PI, VO, WD
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BL, BN
AB, BU, M1, PI
BL, D1, GL, M2, M3, WD
BN, CR, HE, LE, VO
PI, WD
CR, M1, M2
BN, HE, LE, VO
BU, LE, VO, WD
AB, BL, GL, M2, M3
BN, CR, D1, HE, M1, PI

- 446 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


MtodoSAN

Mejor SAN:
Iguales:
Peor SAN:
MAO Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
UTA
Iguales:
Peor SAN:
Mejor SAN:
LEE
Iguales:
Peor SAN:
BOW Mejor SAN:
Iguales:
Peor SAN:
YOU Mejor SAN:
Iguales:
Peor SAN:
BA 0.5 Mejor SAN:
Iguales:
Peor SAN:

GL, WD
BU, D1, M1, M2, M3
AB, BL, BN, CR, HE, LE, PI, VO
CR, HE, PI, WD
BU, D1, GL, M1, M2, M3
AB, BL, BN, LE, VO

BA 0.6 Mejor SAN:

BU, HE, VO, WD


AB, D1, GL, M2, M3
BL, BN, CR, LE, M1, PI
BU, HE, VO, WD
AB, D1, GL, M2, M3
BL, BN, CR, LE, M1, PI
BU, HE, VO, WD
AB, D1, GL, M2, M3
BL, BN, CR, LE, M1, PI
AB, BU, HE, VO, WD
D1, GL, M2, M3
BL, BN, CR, LE, M1, PI
AB, BU, HE, VO, WD
D1, GL, M2, M3
BL, BN, CR, LE, M1, PI
BU, HE, LE, VO, WD
CR, D1, GL, M1, M2, M3
AB, BL, BN, PI
AB, GL, LE, VO, WD
D1, M1, M2, M3
BL, BN, BU, CR, HE, PI
GL, HE, VO, WD
D1, M2, M3
AB, BL, BU, M1, PI
HE, M1, PI, WD
M2, M3
BN, BU, CR, LE, VO
CR, D1, GL, HE, M1, M3, PI, VO, WD
BU, M2
AB, BL, BN, LE
BU, CR, D1, HE, M3, PI, WD

DER2

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:

AB, BU, D1, GL, M1, M2, M3


BL, BN, CR, HE, LE, PI, VO, WD
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BL, BN
AB, BU, D1, M1, PI
BN, GL, M2, M3, WD
BL, CR, HE, LE, VO
HE, PI, WD
CR, LE, M1, M2
BN, VO
BU, VO, WD
AB, D1, GL, HE, M2, M3
BL, BN, CR, LE, M1, PI

AB, BL, M1, M2

- 447 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


MtodoDER2

Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
UTA
Iguales:
Peor DER2:
Mejor DER2:
LEE
Iguales:
Peor DER2:
BOW Mejor DER2:
Iguales:
Peor DER2:
YOU Mejor DER2:
Iguales:
Peor DER2:
BA 0.5 Mejor DER2:
Iguales:
Peor DER2:

AB, CR, HE, PI


BL, BU, D1, M1, M2, M3, VO
BN, GL, LE, WD
CR, HE
BL, BU, D1, M1, M2, M3
AB, BN, GL, LE, PI, VO, WD
AB, BL, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BN
AB, BU, CR, D1, HE, M1, PI, VO, WD
BL, M2, M3
BN, GL, LE
CR, HE, LE, PI, VO
M1, M2
BN, WD
AB, BU, CR, HE, LE, VO, WD
BL, D1, M2, M3
BN, GL, M1, PI

BA 0.6 Mejor DER2:

AB, BU, CR, HE, LE, VO, WD


BL, D1, M2, M3
BN, GL, M1, PI
AB, BU, CR, HE, LE, VO, WD
BL, D1, M2, M3
BN, GL, M1, PI
AB, BU, CR, HE, LE, VO, WD
BL, D1, M2, M3
BN, GL, M1, PI
AB, BU, CR, HE, LE, VO, WD
BL, D1, M2, M3
BN, GL, M1, PI
AB, BU, CR, HE, LE, VO, WD
BL, D1, M2, M3
BN, GL, M1, PI
AB, BU, CR, HE, LE, VO, WD
BL, D1, M1, M2, M3
BN, GL, PI
AB, GL, HE, LE, VO, WD
BL, D1, M1, M2, M3
BN, BU, CR, PI
GL, HE, VO, WD
BL, D1, M2, M3
AB, BU, M1, PI
CR, HE, M1, PI, VO
M2, M3
BN, BU, LE, WD
AB, BL, CR, D1, GL, HE, LE, M1, M3, PI, VO
BU, M2
BN, WD
AB, BU, CR, D1, HE, M3, PI, WD
BL
M1, M2

MAO

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:

- 448 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


MtodoMAO

Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
LEE
Iguales:
Peor MAO:
BOW Mejor MAO:
Iguales:
Peor MAO:
YOU Mejor MAO:
Iguales:
Peor MAO:
BA 0.5 Mejor MAO:
Iguales:
Peor MAO:

HE
BL, BU, D1, GL, M1, M2, M3
AB, BN, CR, LE, PI, VO, WD
AB, BL, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2

BA 0.6 Mejor MAO:

AB, BU, HE, LE, VO, WD


BL, GL, M2, M3
BN, CR, D1, M1, PI
AB, BU, HE, LE, VO, WD
BL, GL, M2, M3
BN, CR, D1, M1, PI
AB, BU, HE, LE, VO, WD
BL, GL, M2, M3
BN, CR, D1, M1, PI
AB, BU, HE, LE, VO, WD
BL, GL, M2, M3
BN, CR, D1, M1, PI
AB, BU, HE, LE, VO, WD
BL, GL, M2, M3
BN, CR, D1, M1, PI
BN, BU, HE, LE, VO, WD
AB, BL, GL, M1, M2, M3
CR, D1, PI
AB, BN, GL, LE, VO, WD
BL, M1, M2, M3
BU, CR, D1, HE, PI
GL, VO, WD
BL, M2, M3
AB, BU, D1, HE, M1, PI
BN, HE, LE, M1, VO
M2, M3, PI
BU, CR, WD
AB, BL, BN, CR, D1, GL, HE, LE, M1, M3, PI, VO
BU, M2
WD
AB, BU, CR, D1, HE, M3, PI, WD
BL
M1, M2

UTA

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:

AB, BN, BU, D1, LE, M1, VO, WD


BL, GL, M2, M3
CR, HE, PI
LE, VO
M1, M2
BN, CR, HE, PI, WD
AB, BU, HE, LE, VO, WD
BL, GL, M2, M3
BN, CR, D1, M1, PI

- 449 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


MtodoUTA

Mejor UTA:
Iguales:
Peor UTA:
BOW Mejor UTA:
Iguales:
Peor UTA:
YOU Mejor UTA:
Iguales:
Peor UTA:
BA 0.5 Mejor UTA:
Iguales:
Peor UTA:

AB, BL, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2

BA 0.6 Mejor UTA:

BU, CR, HE, LE, VO


AB, BL, D1, GL, M2, M3, PI
BN, M1, WD
BU, CR, HE, LE, VO
AB, BL, D1, GL, M2, M3, PI
BN, M1, WD
BU, CR, HE, LE, VO
AB, BL, D1, GL, M2, M3, PI
BN, M1, WD
AB, BU, CR, HE, LE, VO
BL, D1, GL, M2, M3, PI
BN, M1, WD
AB, BU, CR, HE, LE, VO
BL, D1, GL, M2, M3, PI
BN, M1, WD
AB, BN, BU, CR, HE, VO
BL, D1, GL, M1, M2, M3, PI
LE, WD
AB, BN, CR, GL, LE, VO, WD
BL, D1, M1, M2, M3, PI
BU, HE
GL, VO, WD
BL, D1, M2, M3
AB, BU, HE, M1, PI
BN, CR, LE, M1, PI, VO
M2, M3
BU, HE, WD
BL, BN, CR, D1, GL, HE, LE, M1, M3, PI, VO
BU, M2
AB, WD
AB, BU, CR, D1, HE, M3, PI, WD
BL
M1, M2

LEE

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:

AB, BN, BU, CR, D1, LE, M1, PI, VO, WD


BL, GL, M2, M3
HE
BN, CR, LE, PI, VO, WD
M1, M2
HE
BU, CR, HE, LE, VO
AB, BL, D1, GL, M2, M3, PI
BN, M1, WD

- 450 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).

BOW

Mejor LEE:
Iguales:
Peor LEE:
YOU Mejor LEE:
Iguales:
Peor LEE:
BA 0.5 Mejor LEE:
Iguales:
Peor LEE:

BA 0.6 Mejor LEE:


BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:

MtodoLEE

BN
M2
AB, BL, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BN, CR, HE, LE, M1, PI, VO, WD
M2
AB, BL, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
HE, M2
AB, BL, BN, BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
HE, M2
AB, BL, BN, BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
HE, M2
AB, BL, BN, BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
HE, M2
AB, BL, BN, BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
HE, M2
AB, BL, BN, BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
M2
AB, BL, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN, WD
M2
AB, BL, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO
WD
M2
AB, BL, BU, D1, GL, HE, M1, M3, PI, VO
HE, M2
BN, BU, CR, LE, M1, M3, PI, VO, WD
CR, GL, HE, M3, PI
BL, M1, M2, VO
AB, BN, BU, D1, LE, WD
AB, WD
D1
BL, BU, CR, HE, M1, M2, M3, PI

- 451 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo BOW

Mejor BOW:
Iguales:
Peor BOW:
BA 0.5 Mejor BOW:
Iguales:
Peor BOW:

CR, LE, WD
M2, PI
BN, HE, M1, VO
BU, CR, HE, LE, VO, WD
BL, GL, M2, M3
AB, BN, D1, M1, PI

BA 0.6 Mejor BOW:

BU, CR, HE, LE, VO, WD


BL, GL, M2, M3
AB, BN, D1, M1, PI
BU, CR, HE, LE, VO, WD
BL, GL, M2, M3
AB, BN, D1, M1, PI
BU, CR, HE, LE, VO, WD
BL, GL, M2, M3
AB, BN, D1, M1, PI
BU, CR, HE, LE, VO, WD
BL, GL, M2, M3
AB, BN, D1, M1, PI
BU, CR, HE, LE, VO, WD
BL, GL, M2, M3
AB, BN, D1, M1, PI
BU, CR, HE, LE, VO, WD
BL, GL, M2, M3
AB, BN, D1, M1, PI
AB, CR, GL, LE, VO, WD
BL, M2, M3
BN, BU, D1, HE, M1, PI
GL, HE, VO, WD
BL, M2, M3
AB, BU, D1, M1, PI
HE, M1, PI, VO
CR, M2, M3
BN, BU, LE, WD
BL, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
AB, BN, BU
CR, D1, HE, M1, M3, PI, WD
BL
AB, BU, M2

YOU

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:

- 452 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo YOU

BA 0.5 Mejor YOU:

HE, LE, VO, WD


M2
BN, CR, M1, PI

BA 0.6 Mejor YOU:

HE, LE, VO, WD


M2
BN, CR, M1, PI
HE, LE, VO, WD
M2
BN, CR, M1, PI
CR, HE, LE, VO, WD
M2
BN, M1, PI
CR, HE, LE, VO, WD
M2
BN, M1, PI
CR, HE, LE, VO, WD
M2
BN, M1, PI
BN, HE, LE, VO, WD
M1, M2
CR, PI
BN, LE, VO, WD
M1, M2
CR, HE, PI
HE, VO, WD
M2
M1, PI
BN, HE, LE, M1, PI, VO
M2, WD
CR
BN, CR, HE, M1, PI, VO, WD
M2
LE
CR, HE, PI, WD

Iguales:
Peor YOU:

BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:

M1, M2

- 453 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mtodo BA 0.5

BA 0.6 Mejor BA 0.5:

HE, VO
AB, BL, BN, BU, CR, D1, GL, LE, M1, M2, M3, PI, WD

BA 0.7

HE, VO
AB, BL, BN, BU, CR, D1, GL, LE, M1, M2, M3, PI, WD

BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ

Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:

CR, HE, VO
AB, BL, BN, BU, D1, GL, LE, M1, M2, M3, PI, WD
AB, CR, HE, VO
BL, BU, D1, GL, LE, M1, M2, M3, PI, WD
BN
AB, CR, HE
BL, BU, D1, GL, LE, M1, M2, M3, PI, WD
BN, VO
BN, BU, CR, HE, LE, M1, VO, WD
BL, D1, GL, M2, M3, PI
AB
AB, BN, GL, LE, M1, VO
BL, D1, M2, M3, PI
BU, CR, HE, VO
GL, WD
BL, D1, M1, M2, M3
AB, BU, HE, PI, VO
BN, HE, M1, PI, VO
M2, M3
BU, CR, LE, WD
BL, BN, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BU, LE, WD
CR, D1, HE, M1, M3, PI, WD
BL
AB, BU, M2

- 454 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).

BA 0.7 Mejor BA 0.6:


Iguales:
Peor BA 0.6:
BA 0.8 Mejor BA 0.6:
Iguales:
Peor BA 0.6:
BA 0.9 Mejor BA 0.6:
Iguales:
Peor BA 0.6:
Mejor BA 0.6:
BA 1
Iguales:
Peor BA 0.6:
Mejor BA 0.6:
CHI
Iguales:
Peor BA 0.6:
Mejor BA 0.6:
SET
Iguales:
Peor BA 0.6:
GD_DS Mejor BA 0.6:
Iguales:
Peor BA 0.6:
Mejor BA 0.6:
RLF
Iguales:
Peor BA 0.6:
Mejor BA 0.6:
SCH
Iguales:
Peor BA 0.6:
Mejor BA 0.6:
FUZ
Iguales:
Peor BA 0.6:

Mtodo BA 0.6
AB, BL, BN, BU, CR, D1, GL, LE, M1, M2, M3, PI, VO, WD
HE
CR
AB, BL, BN, BU, D1, GL, LE, M1, M2, M3, PI, VO, WD
HE
AB, CR
BL, BU, D1, GL, LE, M1, M2, M3, PI, WD
BN, HE, VO
AB, CR
BL, BU, D1, GL, LE, M1, M2, M3, PI, WD
BN, HE, VO
BN, BU, CR, LE, M1, WD
BL, D1, GL, HE, M2, M3, PI
AB, VO
AB, BN, GL, LE, M1
BL, D1, M2, M3, PI
BU, CR, HE, VO, WD
GL, WD
BL, D1, M1, M2, M3
AB, BU, HE, PI, VO
BN, M1, PI, VO
M2, M3
BU, CR, HE, LE, WD
BL, BN, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BU, LE, WD
CR, D1, HE, M1, M3, PI, WD
BL
AB, BU, M2

- 455 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).

BA 0.8 Mejor BA 0.7:


Iguales:
Peor BA 0.7:
BA 0.9 Mejor BA 0.7:
Iguales:
Peor BA 0.7:
Mejor BA 0.7:
BA 1
Iguales:
Peor BA 0.7:
Mejor BA 0.7:
CHI
Iguales:
Peor BA 0.7:
Mejor BA 0.7:
SET
Iguales:
Peor BA 0.7:
GD_DS Mejor BA 0.7:
Iguales:
Peor BA 0.7:
Mejor BA 0.7:
RLF
Iguales:
Peor BA 0.7:
Mejor BA 0.7:
SCH
Iguales:
Peor BA 0.7:
Mejor BA 0.7:
FUZ
Iguales:
Peor BA 0.7:

BA 0.9 Mejor BA 0.8:


Iguales:
Peor BA 0.8:
Mejor BA 0.8:
BA 1
Iguales:
Peor BA 0.8:
Mejor BA 0.8:
CHI
Iguales:
Peor BA 0.8:
Mejor BA 0.8:
SET
Iguales:
Peor BA 0.8:
GD_DS Mejor BA 0.8:
Iguales:
Peor BA 0.8:
Mejor BA 0.8:
RLF
Iguales:
Peor BA 0.8:
Mejor BA 0.8:
SCH
Iguales:
Peor BA 0.8:
Mejor BA 0.8:
FUZ
Iguales:
Peor BA 0.8:

Mtodo BA 0.7

CR
AB, BL, BN, BU, D1, GL, HE, LE, M1, M2, M3, PI, VO, WD
AB, CR
BL, BU, D1, GL, HE, LE, M1, M2, M3, PI, WD
BN, VO
AB, CR
BL, BU, D1, GL, HE, LE, M1, M2, M3, PI, WD
BN, VO
BN, BU, CR, LE, M1, WD
BL, D1, GL, M2, M3, PI
AB, HE, VO
AB, BN, GL, LE, M1
BL, D1, M2, M3, PI
BU, CR, HE, VO, WD
GL, WD
BL, D1, M1, M2, M3
AB, BU, HE, PI, VO
BN, M1, PI, VO
HE, M2, M3
BU, CR, LE, VO
BL, BN, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BU, LE, WD
CR, D1, M1, M3, PI, WD
BL
AB, BU, HE, M2

Mtodo BA 0.8

AB
BL, BU, CR, D1, GL, HE, LE, M1, M2, M3, PI, WD
BN, VO
AB
BL, BU, CR, D1, GL, HE, LE, M1, M2, M3, PI, WD
BN, VO
BN, BU, CR, LE, M1, WD
BL, D1, GL, M2, M3, PI
AB, HE, VO
AB, BN, GL, LE, M1
BL, D1, M2, M3, PI
BU, CR, HE, VO, WD
GL, WD
BL, D1, M1, M2, M3
AB, BU, HE, PI, VO
BN, M1, PI, VO
HE, M2, M3
BU, CR, LE, WD
BL, BN, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BU, LE, WD
CR, D1, M1, M3, PI, VO
BL
AB, BU, HE, M2

- 456 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).


Mejor BA 0.9:
Iguales:
Peor BA 0.9:
Mejor BA 0.9:
CHI
Iguales:
Peor BA 0.9:
Mejor BA 0.9:
SET
Iguales:
Peor BA 0.9:
GD_DS Mejor BA 0.9:
Iguales:
Peor BA 0.9:
Mejor BA 0.9:
RLF
Iguales:
Peor BA 0.9:
Mejor BA 0.9:
SCH
Iguales:
Peor BA 0.9:
Mejor BA 0.9:
FUZ
Iguales:
Peor BA 0.9:

BA 1

Mtodo BA 0.9
AB, BL, BN, BU, CR, D1, GL, HE, LE, M1, M2, M3, PI, VO, WD
BN, BU, CR, LE, M1, WD
BL, D1, GL, M2, M3, PI
AB, HE, VO
AB, BN, GL, LE, M1
BL, D1, M2, M3, PI
BU, CR, HE, VO, WD
GL, WD
BL, D1, M1, M2, M3
AB, BU, HE, PI, VO
BN, M1, PI
HE, M2, M3
BU, CR, LE, VO, WD
BL, BN, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BU, LE, WD
CR, D1, M1, M3, PI, WD
BL
AB, BU, HE, M2

Mtodo BA 1

CHI

Mejor BA 1:
Iguales:
Peor BA 1:
Mejor BA 1:
SET
Iguales:
Peor BA 1:
GD_DS Mejor BA 1:
Iguales:
Peor BA 1:
Mejor BA 1:
RLF
Iguales:
Peor BA 1:
Mejor BA 1:
SCH
Iguales:
Peor BA 1:
Mejor BA 1:
FUZ
Iguales:
Peor BA 1:

BN, BU, CR, LE, M1, WD


D1, GL, M2, M3, PI
AB, HE, VO
AB, BN, GL, LE, M1
BL, D1, M2, M3, PI
BU, CR, HE, VO, WD
GL, WD
BL, D1, M1, M2, M3
AB, BU, HE, PI, VO
BN, M1, PI
HE, M2, M3
BU, CR, LE, VO, WD
BL, BN, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BU, LE, WD
CR, D1, M1, M3, PI, WD
BL
AB, BU, HE, M2

Mejor CHI:
Iguales:
Peor CHI:
GD_DS Mejor CHI:
Iguales:
Peor CHI:
Mejor CHI:
RLF
Iguales:
Peor CHI:
Mejor CHI:
SCH
Iguales:
Peor CHI:
Mejor CHI:
FUZ
Iguales:
Peor CHI:

AB, BN, GL
BL, D1, M1, M2, M3, PI, VO
BU, CR, HE, LE, WD
GL, WD
BL, D1, HE, M2, M3
AB, BU, M1, PI, VO
HE, LE, M1, PI
M2, M3
BN, BU, CR, VO, WD
AB, BL, BN, CR, D1, GL, HE, LE, M1, M3, PI, VO
M2
BU, WD
AB, CR, D1, HE, M3, PI, WD
BL, M1
BU, M2

SET

Mtodo CHI

- 457 -

II. APNDICES DEL CAPTULO 3

Tabla 57. Comparacin entre mtodos ARNMF y ACE. (Continuacin).

RLF
SCH
FUZ

RLF
SCH
FUZ

SCH
FUZ

FUZ

Mtodo SET

Iguales:
Peor SET:
Mejor SET:
Iguales:
Peor SET:
Mejor SET:
Iguales:
Peor SET:
Mejor SET:
Iguales:
Peor SET:

GL, HE, WD
BL, BU, D1, M2, M3
AB, M1, PI, VO
HE, M1, PI
BU, M2, M3
BN, CR, LE, VO, WD
BL, BU, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BN, LE, WD
CR, D1, HE, M3, PI, WD
BL, BU, M1
AB, M2

Mejor GD_DS:
Iguales:
Peor GD_DS:
Mejor GD_DS:
Iguales:
Peor GD_DS:
Mejor GD_DS:
Iguales:
Peor GD_DS:

HE, M1, PI, VO


BU, M2, M3
WD
AB, D1, HE, M1, M3, PI, WD
BL, BU
M2
AB, BL, D1, HE, M1, M3, PI, VO
M2
BU, GL, WD

Mejor RLF:
Iguales:
Peor RLF:
Mejor RLF:
Iguales:
Peor RLF:

CR, M3, PI, WD


BU
HE, M1, M2
BN, BU, CR, HE, LE, M1, M3, PI, VO, WD
M2

Mejor SCH:
Iguales:
Peor SCH:

BL, CR, HE, M1, M2, M3, PI

GD_DS Mejor SET:

Mtodo GD DS

Mtodo RLF

Mtodo SCH

AB, BU, D1, WD

- 458 -

II. APNDICES DEL CAPTULO 3

II.6. Comparacin entre mtodos ARNMF con y sin WD


Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD.
Mtodo BL1 con Weight-Decay
BL1

Mejor BL1_WD: BN, VO


CR, GL, HE, PI, WD
Iguales:
Peor BL1_WD: BU

Mejor BL1_WD: VO, WD


GL
Iguales:
Peor BL1_WD: BN, BU, CR, HE, PI
Mejor BL1_WD: BN, VO
CLO
CR, GL, PI, WD
Iguales:
Peor BL1_WD: BU, HE
Mejor BL1_WD: BN, VO
PRI
CR, GL, HE, PI, WD
Iguales:
Peor BL1_WD: BU
Mejor BL1_WD: VO, WD
DEV
CR, GL
Iguales:
Peor BL1_WD: BN, BU, HE, PI
Mejor BL1_WD: BU, CR, GL, HE, PI, VO, WD
LEE
Iguales:
Peor BL1_WD: BN
Mejor BL1_WD: GL, PI, VO, WD
TEK
CR
Iguales:
Peor BL1_WD: BN, BU, HE
Mejor BL1_WD: BN, PI, VO
SAN
CR, GL, WD
Iguales:
Peor BL1_WD: BU, HE
TEKA Mejor BL1_WD: VO, WD
GL
Iguales:
Peor BL1_WD: BN, BU, CR, HE, PI
TEKB Mejor BL1_WD: GL, VO
WD
Iguales:
Peor BL1_WD: BN, BU, CR, HE, PI
DER2 Mejor BL1_WD: GL, WD
PI, VO
Iguales:
Peor BL1_WD: BN, BU, CR, HE
DER3 Mejor BL1_WD: BU, CR, GL, HE, PI, VO, WD
Iguales:
Peor BL1_WD: BN
MAO Mejor BL1_WD: CR, PI, WD
GL, HE, VO
Iguales:
Peor BL1_WD: BN, BU
Mejor BL1_WD: HE, WD
UTA
GL
Iguales:
Peor BL1_WD: BN, BU, CR, PI, VO
Mejor BL1_WD: CR, GL, PI, VO, WD
CIB
HE
Iguales:
Peor BL1_WD: BN, BU
TEKE Mejor BL1_WD: GL, HE, PI, VO, WD
BU
Iguales:
Peor BL1_WD:
YOU Mejor BL1_WD: PI, VO, WD
CR
Iguales:
Peor BL1_WD: BN, HE

BL2

- 459 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo BL2 con Weight-Decay
BL1

Mejor BL2_WD: BN, VO


CR, GL, HE, PI, WD
Iguales:
Peor BL2_WD: BU

Mejor BL2_WD: VO, WD


GL
Iguales:
Peor BL2_WD: BN, BU, CR, HE, PI
Mejor BL2_WD: BN, VO
CLO
CR, GL, PI, WD
Iguales:
Peor BL2_WD: BU, HE
Mejor BL2_WD: BN, VO
PRI
CR, GL, HE, PI, WD
Iguales:
Peor BL2_WD: BU
Mejor BL2_WD: VO, WD
DEV
CR, GL
Iguales:
Peor BL2_WD: BN, BU, HE, PI
Mejor BL2_WD: BU, CR, GL, HE, PI, VO, WD
LEE
Iguales:
Peor BL2_WD: BN
Mejor BL2_WD: GL, PI, VO, WD
TEK
CR
Iguales:
Peor BL2_WD: BN, BU, HE
Mejor BL2_WD: BN, PI, VO
SAN
CR, GL, WD
Iguales:
Peor BL2_WD: BU, HE
TEKA Mejor BL2_WD: VO, WD
GL
Iguales:
Peor BL2_WD: BN, BU, CR, HE, PI
TEKB Mejor BL2_WD: GL, VO
WD
Iguales:
Peor BL2_WD: BN, BU, CR, HE, PI
DER2 Mejor BL2_WD: GL, WD
PI, VO
Iguales:
Peor BL2_WD: BN, BU, CR, HE
DER3 Mejor BL2_WD: CR, GL, HE, PI, VO, WD
BU
Iguales:
Peor BL2_WD: BN
MAO Mejor BL2_WD: CR, PI, WD
GL, HE, VO
Iguales:
Peor BL2_WD: BN, BU
Mejor BL2_WD: HE, WD
UTA
GL
Iguales:
Peor BL2_WD: BN, BU, CR, PI, VO
Mejor BL2_WD: CR, GL, PI, VO, WD
CIB
HE
Iguales:
Peor BL2_WD: BN, BU
TEKE Mejor BL2_WD: BU, GL, HE, PI, VO, WD
Iguales:
Peor BL2_WD:
YOU Mejor BL2_WD: PI, VO, WD
CR
Iguales:
Peor BL2_WD: BN, HE

BL2

- 460 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo CLO con Weight-Decay
BL1

Mejor CLO_WD: BN, VO


CR, GL, HE, PI, WD
Iguales:
Peor CLO_WD: BU

Mejor CLO_WD: VO, WD


GL
Iguales:
Peor CLO_WD: BN, BU, CR, HE, PI
Mejor CLO_WD: BN, VO
CLO
CR, GL, PI, WD
Iguales:
Peor CLO_WD: BU, HE
Mejor CLO_WD: BN, VO
PRI
CR, GL, HE, PI, WD
Iguales:
Peor CLO_WD: BU
Mejor CLO_WD: VO, WD
DEV
CR, GL
Iguales:
Peor CLO_WD: BN, BU, HE, PI
Mejor CLO_WD: BU, CR, GL, HE, PI, VO, WD
LEE
Iguales:
Peor CLO_WD: BN
Mejor CLO_WD: GL, PI, VO, WD
TEK
CR
Iguales:
Peor CLO_WD: BN, BU, HE
Mejor CLO_WD: BN, PI, VO
SAN
CR, GL, WD
Iguales:
Peor CLO_WD: BU, HE
TEKA Mejor CLO_WD: VO, WD
GL
Iguales:
Peor CLO_WD: BN, BU, CR, HE, PI
TEKB Mejor CLO_WD: GL, VO
WD
Iguales:
Peor CLO_WD: BN, BU, CR, HE, PI
DER2 Mejor CLO_WD: GL, WD
PI, VO
Iguales:
Peor CLO_WD: BN, BU, CR, HE
DER3 Mejor CLO_WD: BU, CR, GL, HE, PI, VO, WD
Iguales:
Peor CLO_WD: BN
MAO Mejor CLO_WD: CR, PI, WD
GL, HE, VO
Iguales:
Peor CLO_WD: BN, BU
Mejor CLO_WD: HE, WD
UTA
GL
Iguales:
Peor CLO_WD: BN, BU, CR, PI, VO
Mejor CLO_WD: CR, GL, PI, VO, WD
CIB
HE
Iguales:
Peor CLO_WD: BN, BU
TEKE Mejor CLO_WD: GL, HE, PI, VO, WD
BU
Iguales:
Peor CLO_WD:
YOU Mejor CLO_WD: PI, VO, WD
CR
Iguales:
Peor CLO_WD: BN, HE

BL2

- 461 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo PRI con Weight-Decay
BL1

Mejor PRI_WD: BN, VO


CR, GL, HE, PI, WD
Iguales:
Peor PRI_WD: BU

Mejor PRI_WD:
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
CLO
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
PRI
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
DEV
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
LEE
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
TEK
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
SAN
Iguales:
Peor PRI_WD:
TEKA Mejor PRI_WD:
Iguales:
Peor PRI_WD:
TEKB Mejor PRI_WD:
Iguales:
Peor PRI_WD:
DER2 Mejor PRI_WD:
Iguales:
Peor PRI_WD:
DER3 Mejor PRI_WD:
Iguales:
Peor PRI_WD:
MAO Mejor PRI_WD:
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
UTA
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
CIB
Iguales:
Peor PRI_WD:
TEKE Mejor PRI_WD:
Iguales:
Peor PRI_WD:
YOU Mejor PRI_WD:
Iguales:
Peor PRI_WD:

BL2

VO, WD
GL
BN, BU, CR, HE, PI
BN, VO
CR, GL, PI, WD
BU, HE
BN, VO
CR, GL, HE, PI, WD
BU
VO, WD
CR, GL
BN, BU, HE, PI
BU, CR, GL, HE, PI, VO, WD
BN
GL, PI, VO, WD
CR
BN, BU, HE
BN, PI, VO
CR, GL, WD
BU, HE
VO, WD
GL
BN, BU, CR, HE, PI
GL, VO
WD
BN, BU, CR, HE, PI
GL, WD
PI, VO
BN, BU, CR, HE
BU, CR, GL, HE, PI, VO, WD
BN
CR, PI, WD
GL, HE, VO
BN, BU
HE, WD
GL
BN, BU, CR, PI, VO
CR, GL, PI, VO, WD
HE
BN, BU
GL, HE, PI, VO, WD
BU
PI, VO, WD
CR
BN, HE

- 462 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo DEV con Weight-Decay
BL1

Mejor DEV_WD: BN, VO


BU, CR, GL, HE, PI, WD
Iguales:
Peor DEV_WD:

Mejor DEV_WD: VO, WD


BU, GL
Iguales:
Peor DEV_WD: BN, CR, HE, PI
Mejor DEV_WD: BN, VO
CLO
BU, CR, GL, PI, WD
Iguales:
Peor DEV_WD: HE
Mejor DEV_WD: BN, VO
PRI
BU, CR, GL, HE, PI, WD
Iguales:
Peor DEV_WD:
Mejor DEV_WD: VO, WD
DEV
BU, CR, GL
Iguales:
Peor DEV_WD: BN, HE, PI
Mejor DEV_WD: BU, CR, GL, HE, PI, VO, WD
LEE
Iguales:
Peor DEV_WD: BN
Mejor DEV_WD: BU, GL, PI, VO, WD
TEK
CR
Iguales:
Peor DEV_WD: BN, HE
Mejor DEV_WD: BN, PI, VO
SAN
BU, CR, GL, WD
Iguales:
Peor DEV_WD: HE
TEKA Mejor DEV_WD: VO, WD
BU, GL
Iguales:
Peor DEV_WD: BN, CR, HE, PI
TEKB Mejor DEV_WD: GL, VO
BU, WD
Iguales:
Peor DEV_WD: BN, CR, HE, PI
DER2 Mejor DEV_WD: GL, WD
BU, PI, VO
Iguales:
Peor DEV_WD: BN, CR, HE
DER3 Mejor DEV_WD: BU, CR, GL, HE, PI, VO, WD
Iguales:
Peor DEV_WD: BN
MAO Mejor DEV_WD: CR, PI, WD
BU, GL, HE, VO
Iguales:
Peor DEV_WD: BN
Mejor DEV_WD: HE, WD
UTA
BU, GL
Iguales:
Peor DEV_WD: BN, CR, PI, VO
Mejor DEV_WD: CR, GL, PI, VO, WD
CIB
HE
Iguales:
Peor DEV_WD: BN, BU
TEKE Mejor DEV_WD: BU, GL, HE, PI, VO, WD
Iguales:
Peor DEV_WD:
YOU Mejor DEV_WD: PI, VO, WD
CR
Iguales:
Peor DEV_WD: BN, HE

BL2

- 463 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo LEE con Weight-Decay
BL1

Mejor LEE_WD: BN, BU


Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD

Mejor LEE_WD: BU
Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD
Mejor LEE_WD: BN, BU
CLO
Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD
Mejor LEE_WD: BN, BU
PRI
Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD
Mejor LEE_WD: BU
DEV
Iguales:
Peor LEE_WD: BN, CR, GL, HE, PI, VO, WD
Mejor LEE_WD: BN, BU, CR, GL, PI
LEE
Iguales:
Peor LEE_WD: HE, VO, WD
Mejor LEE_WD: BN, BU
TEK
Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD
Mejor LEE_WD: BN, BU
SAN
Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD
TEKA Mejor LEE_WD: BU
Iguales:
Peor LEE_WD: BN, CR, GL, HE, PI, VO, WD
TEKB Mejor LEE_WD: BN, BU
Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD
DER2 Mejor LEE_WD: BN, BU
Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD
DER3 Mejor LEE_WD: BN, BU, GL, VO, WD
Iguales:
Peor LEE_WD: CR, HE, PI
MAO Mejor LEE_WD: BU
Iguales:
Peor LEE_WD: BN, CR, GL, HE, PI, VO, WD
Mejor LEE_WD: BU
UTA
Iguales:
Peor LEE_WD: BN, CR, GL, HE, PI, VO, WD
Mejor LEE_WD: BU
CIB
Iguales:
Peor LEE_WD: BN, CR, GL, HE, PI, VO, WD
TEKE Mejor LEE_WD: BU, GL, PI
Iguales:
Peor LEE_WD: GL, HE, VO, WD
YOU Mejor LEE_WD:
Iguales:
Peor LEE_WD: BN, CR, HE, PI, VO, WD

BL2

- 464 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo TEK con Weight-Decay
BL1

Mejor TEK_WD: BN, HE


CR, GL, PI
Iguales:
Peor TEK_WD: BU, VO, WD

Mejor TEK_WD:
GL
Iguales:
Peor TEK_WD: BN, BU, CR, HE, PI, VO, WD
Mejor TEK_WD: BN, HE
CLO
CR, GL, PI
Iguales:
Peor TEK_WD: BU, VO, WD
Mejor TEK_WD: BN, HE
PRI
CR, GL, PI
Iguales:
Peor TEK_WD: BU, VO, WD
Mejor TEK_WD: WD
DEV
CR, GL
Iguales:
Peor TEK_WD: BN, BU, HE, PI, VO
Mejor TEK_WD: CR, GL, HE, PI, VO, WD
LEE
BU
Iguales:
Peor TEK_WD: BN
Mejor TEK_WD: GL, PI, WD
TEK
CR
Iguales:
Peor TEK_WD: BN, BU, HE, VO
Mejor TEK_WD: BN, HE, PI
SAN
CR, GL
Iguales:
Peor TEK_WD: BU, VO, WD
TEKA Mejor TEK_WD:
GL
Iguales:
Peor TEK_WD: BN, BU, CR, HE, PI, VO, WD
TEKB Mejor TEK_WD: GL, HE
Iguales:
Peor TEK_WD: BN, BU, CR, PI, VO, WD
DER2 Mejor TEK_WD: GL, WD
PI
Iguales:
Peor TEK_WD: BN, BU, CR, HE, VO
DER3 Mejor TEK_WD: CR, GL, HE, PI, VO, WD
Iguales:
Peor TEK_WD: BN, BU
MAO Mejor TEK_WD: CR, PI, WD
GL
Iguales:
Peor TEK_WD: BN, BU, HE, VO
Mejor TEK_WD: HE, WD
UTA
GL
Iguales:
Peor TEK_WD: BN, BU, CR, PI, VO
Mejor TEK_WD: CR, GL, PI, WD
CIB
Iguales:
Peor TEK_WD: BN, BU, HE, VO
TEKE Mejor TEK_WD: GL, HE, PI, VO, WD
Iguales:
Peor TEK_WD: BU
YOU Mejor TEK_WD: PI, WD
CR
Iguales:
Peor TEK_WD: BN, HE, VO

BL2

- 465 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo SAN con Weight-Decay
BL1

Mejor SAN_WD: BN, VO


CR, GL, HE, PI, WD
Iguales:
Peor SAN_WD: BU

Mejor SAN_WD: VO, WD


GL
Iguales:
Peor SAN_WD: BN, BU, CR, HE, PI
Mejor SAN_WD: BN, VO
CLO
CR, GL, PI, WD
Iguales:
Peor SAN_WD: BN, HE
Mejor SAN_WD: BN, VO
PRI
CR, GL, HE, PI, WD
Iguales:
Peor SAN_WD: BU
Mejor SAN_WD: VO, WD
DEV
CR, GL
Iguales:
Peor SAN_WD: BN, BU, HE, PI
Mejor SAN_WD: BU, CR, GL, HE, PI, VO, WD
LEE
Iguales:
Peor SAN_WD: BN
Mejor SAN_WD: GL, PI, VO, WD
TEK
CR
Iguales:
Peor SAN_WD: BN, BU, HE
Mejor SAN_WD: BN, PI, VO
SAN
CR, GL, WD
Iguales:
Peor SAN_WD: BU, HE
TEKA Mejor SAN_WD: VO, WD
GL
Iguales:
Peor SAN_WD: BN, BU, CR, HE, PI
TEKB Mejor SAN_WD: GL, VO
WD
Iguales:
Peor SAN_WD: BN, BU, CR, HE, PI
DER2 Mejor SAN_WD: GL, WD
PI, VO
Iguales:
Peor SAN_WD: BN, BU, CR, HE
DER3 Mejor SAN_WD: BU, CR, GL, HE, PI, VO, WD
Iguales:
Peor SAN_WD: BN
MAO Mejor SAN_WD: CR, PI, WD
GL, HE, VO
Iguales:
Peor SAN_WD: BN, BU
Mejor SAN_WD: HE, WD
UTA
GL
Iguales:
Peor SAN_WD: BN, BU, CR, PI, VO
Mejor SAN_WD: CR, GL, PI, VO, WD
CIB
HE
Iguales:
Peor SAN_WD: BN, BU
TEKE Mejor SAN_WD: GL, PI, VO, WD
BU
Iguales:
Peor SAN_WD:
YOU Mejor SAN_WD: PI, VO, WD
CR
Iguales:
Peor SAN_WD: BN, HE

BL2

- 466 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo TEKA con Weight-Decay
BL1

Mejor TEKA_WD: BN, PI, VO


CR, GL, HE, WD
Iguales:
Peor TEKA_WD: BU

Mejor TEKA_WD: VO, WD


GL, PI
Iguales:
Peor TEKA_WD: BN, BU, CR, HE
Mejor TEKA_WD: BN, PI, VO
CLO
CR, GL, WD
Iguales:
Peor TEKA_WD: BU, HE
Mejor TEKA_WD: BN, PI, VO
PRI
CR, GL, HE, WD
Iguales:
Peor TEKA_WD: BU
Mejor TEKA_WD: BN, VO, WD
DEV
CR, GL, PI
Iguales:
Peor TEKA_WD: BU, HE
Mejor TEKA_WD: BN, BU, CR, GL, HE, PI, VO, WD
LEE
Iguales:
Peor TEKA_WD:
Mejor TEKA_WD: BN, GL, PI, VO, WD
TEK
CR
Iguales:
Peor TEKA_WD: BU, HE
Mejor TEKA_WD: BN, PI, VO
SAN
CR, GL, WD
Iguales:
Peor TEKA_WD: BU, HE
TEKA Mejor TEKA_WD: VO, WD
GL, PI
Iguales:
Peor TEKA_WD: BN, BU, CR, HE
TEKB Mejor TEKA_WD: BN, GL, VO
PI, WD
Iguales:
Peor TEKA_WD: BU, CR, HE
DER2 Mejor TEKA_WD: BN, GL, PI, WD
VO
Iguales:
Peor TEKA_WD: BU, CR, HE
DER3 Mejor TEKA_WD: BN, CR, GL, HE, PI, VO, WD
BU
Iguales:
Peor TEKA_WD:
MAO Mejor TEKA_WD: CR, PI, WD
GL, HE, VO
Iguales:
Peor TEKA_WD: BN, BU
Mejor TEKA_WD: HE, WD
UTA
GL, PI
Iguales:
Peor TEKA_WD: BN, BU, CR, VO
Mejor TEKA_WD: CR, GL, PI, VO, WD
CIB
HE
Iguales:
Peor TEKA_WD: BN, BU
TEKE Mejor TEKA_WD: BU, GL, HE, PI, VO, WD
Iguales:
Peor TEKA_WD:
YOU Mejor TEKA_WD: PI, VO, WD
CR
Iguales:
Peor TEKA_WD: BN, HE

BL2

- 467 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo TEKB con Weight-Decay
BL1

Mejor TEKB_WD: BN, VO


CR, GL, HE, PI, WD
Iguales:
Peor TEKB_WD: BU

Mejor TEKB_WD: VO, WD


GL
Iguales:
Peor TEKB_WD: BN, BU, CR, HE, PI
Mejor TEKB_WD: BN, VO
CLO
CR, GL, PI, WD
Iguales:
Peor TEKB_WD: BU, HE
Mejor TEKB_WD: BN, VO
PRI
CR, GL, HE, PI, WD
Iguales:
Peor TEKB_WD: BU
Mejor TEKB_WD: VO, WD
DEV
CR, GL
Iguales:
Peor TEKB_WD: BN, BU, HE, PI
Mejor TEKB_WD: CR, GL, HE, PI, VO, WD
LEE
BU
Iguales:
Peor TEKB_WD: BN
Mejor TEKB_WD: GL, PI, VO, WD
TEK
CR
Iguales:
Peor TEKB_WD: BN, BU, HE
Mejor TEKB_WD: BN, PI, VO
SAN
CR, GL, WD
Iguales:
Peor TEKB_WD: BU, HE
TEKA Mejor TEKB_WD: VO, WD
GL
Iguales:
Peor TEKB_WD: BN, BU, CR, HE, PI
TEKB Mejor TEKB_WD: GL, VO
WD
Iguales:
Peor TEKB_WD: BN, BU, CR, HE, PI
DER2 Mejor TEKB_WD: GL, WD
PI, VO
Iguales:
Peor TEKB_WD: BN, BU, CR, HE
DER3 Mejor TEKB_WD: CR, GL, HE, PI, VO, WD
BU
Iguales:
Peor TEKB_WD: BN
MAO Mejor TEKB_WD: CR, PI, WD
GL, HE, VO
Iguales:
Peor TEKB_WD: BN, BU
Mejor TEKB_WD: HE, WD
UTA
GL
Iguales:
Peor TEKB_WD: BN, BU, CR, PI, VO
Mejor TEKB_WD: CR, GL, PI, VO, WD
CIB
HE
Iguales:
Peor TEKB_WD: BN, BU
TEKE Mejor TEKB_WD: GL, HE, PI, VO, WD
Iguales:
Peor TEKB_WD: BU
YOU Mejor TEKB_WD: PI, VO, WD
CR
Iguales:
Peor TEKB_WD: BN, HE

BL2

- 468 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo DER2 con Weight-Decay
BL1

Mejor DER2_WD: BN, HE, VO


CR, PI
Iguales:
Peor DER2_WD: BU, GL, WD

Mejor DER2_WD:
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
CLO
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
PRI
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
DEV
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
LEE
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
TEK
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
SAN
Iguales:
Peor DER2_WD:
TEKA Mejor DER2_WD:
Iguales:
Peor DER2_WD:
TEKB Mejor DER2_WD:
Iguales:
Peor DER2_WD:
DER2 Mejor DER2_WD:
Iguales:
Peor DER2_WD:
DER3 Mejor DER2_WD:
Iguales:
Peor DER2_WD:
MAO Mejor DER2_WD:
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
UTA
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
CIB
Iguales:
Peor DER2_WD:
TEKE Mejor DER2_WD:
Iguales:
Peor DER2_WD:
YOU Mejor DER2_WD:
Iguales:
Peor DER2_WD:

BL2

BN, VO
BU, CR, GL, HE, PI, WD
BN, VO
CR, PI
BU, GL, HE, WD
BN, VO
CR, PI
BU, GL, HE, WD
BN, VO
CR, WD
BU, GL, HE, PI
BN, CR, GL, HE, PI, VO, WD
BU
BN, PI, VO
CR, GL, HE
BU, WD
BN, PI, VO
CR
BU, GL, HE, WD
BN, VO
BU, CR, GL, HE, PI, WD
BN, VO
GL
BU, CR, HE, PI, WD
BN
GL, PI
BU, CR, HE, VO, WD
CR, GL, PI, VO, WD
BN, BU, HE
CR, HE, PI
VO
BN, BU, GL, WD
BN, BU, CR, GL, HE, PI, VO, WD
CR, HE, PI, VO
GL
BN, BU, WD
GL, HE, PI, VO
BU, WD
PI, VO
CR, HE
BN, WD

- 469 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo DER3 con Weight-Decay
BL1

Mejor DER3_WD: BN, PI


CR
Iguales:
Peor DER3_WD: BU, GL, HE, VO, WD

Mejor DER3_WD: BN, PI


Iguales:
Peor DER3_WD: BU, CR, GL, HE, VO, WD
Mejor DER3_WD: BN, PI
CLO
CR
Iguales:
Peor DER3_WD: BU, GL, HE, VO, WD
Mejor DER3_WD: BN, PI
PRI
CR
Iguales:
Peor DER3_WD: BU, GL, HE, VO, WD
Mejor DER3_WD: BN, PI, WD
DEV
CR
Iguales:
Peor DER3_WD: BU, GL, HE, VO
Mejor DER3_WD: BN, BU, CR, GL, HE, PI, VO, WD
LEE
Iguales:
Peor DER3_WD:
Mejor DER3_WD: BN, PI
TEK
BU, CR
Iguales:
Peor DER3_WD: GL, HE, VO, WD
Mejor DER3_WD: BN, PI
SAN
CR
Iguales:
Peor DER3_WD: BU, GL, HE, VO, WD
TEKA Mejor DER3_WD: BN, PI
Iguales:
Peor DER3_WD: BU, CR, GL, HE, VO, WD
TEKB Mejor DER3_WD: BN, PI
Iguales:
Peor DER3_WD: BU, CR, GL, HE, VO, WD
DER2 Mejor DER3_WD: BN, PI, WD
Iguales:
Peor DER3_WD: BU, CR, GL, HE, VO
DER3 Mejor DER3_WD:
Iguales:
Peor DER3_WD: BN, BU, CR, GL, HE, PI, VO, WD
MAO Mejor DER3_WD: CR, PI, WD
HE
Iguales:
Peor DER3_WD: BN, BU, GL, VO
Mejor DER3_WD: PI, WD
UTA
Iguales:
Peor DER3_WD: BN, BU, CR, GL, HE, VO
Mejor DER3_WD: CR, PI, WD
CIB
BU
Iguales:
Peor DER3_WD: BN, GL, HE, VO
TEKE Mejor DER3_WD: BU, PI, VO, WD
Iguales:
Peor DER3_WD: GL, HE
YOU Mejor DER3_WD: PI
CR
Iguales:
Peor DER3_WD: BN, HE, VO, WD

BL2

- 470 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo MAO con Weight-Decay
BL1

Mejor MAO_WD: BN, CR, VO


GL
Iguales:
Peor MAO_WD: BU, HE, PI, WD

Mejor MAO_WD: WD
BN, GL
Iguales:
Peor MAO_WD: BU, CR, HE, PI, VO
Mejor MAO_WD: BN, CR, VO
CLO
GL
Iguales:
Peor MAO_WD: BU, HE, PI, WD
Mejor MAO_WD: BN, CR, VO
PRI
GL
Iguales:
Peor MAO_WD: BU, HE, PI, WD
Mejor MAO_WD: BN, CR, WD
DEV
GL
Iguales:
Peor MAO_WD: BU, HE, PI, VO
Mejor MAO_WD: BN, BU, CR, GL, PI, VO, WD
LEE
Iguales:
Peor MAO_WD: HE
Mejor MAO_WD: BN, CR, GL, VO
TEK
Iguales:
Peor MAO_WD: BU, HE, PI, WD
Mejor MAO_WD: BN, CR, VO
SAN
GL
Iguales:
Peor MAO_WD: BU, HE, PI, WD
TEKA Mejor MAO_WD:
BN, GL, WD
Iguales:
Peor MAO_WD: BU, CR, HE, PI, VO
TEKB Mejor MAO_WD: BN, GL, VO
Iguales:
Peor MAO_WD: BU, CR, HE, PI, WD
DER2 Mejor MAO_WD: BN, GL, WD
Iguales:
Peor MAO_WD: BU, CR, HE, PI, VO
DER3 Mejor MAO_WD: BN, CR, GL, HE, PI, VO, WD
Iguales:
Peor MAO_WD: BU
MAO Mejor MAO_WD: CR
GL, WD
Iguales:
Peor MAO_WD: BN, BU, HE, PI, VO
Mejor MAO_WD: HE, WD
UTA
BN, GL
Iguales:
Peor MAO_WD: BU, CR, PI, VO
Mejor MAO_WD: CR, GL
CIB
VO, WD
Iguales:
Peor MAO_WD: BN, BU, HE, PI
TEKE Mejor MAO_WD: GL, PI, VO
Iguales:
Peor MAO_WD: BU, HE, WD
YOU Mejor MAO_WD: CR
VO
Iguales:
Peor MAO_WD: BN, HE, PI, WD

BL2

- 471 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo UTA con Weight-Decay
BL1

Mejor UTA_WD: BN, PI, VO


CR, GL
Iguales:
Peor UTA_WD: BU, HE, WD

Mejor UTA_WD: BN, VO


GL, PI
Iguales:
Peor UTA_WD: BU, CR, HE, WD
Mejor UTA_WD: BN, HE, PI, VO
CLO
CR, GL
Iguales:
Peor UTA_WD: BU, WD
Mejor UTA_WD: BN, PI, VO
PRI
CR, GL
Iguales:
Peor UTA_WD: BU, HE, WD
Mejor UTA_WD: BN, VO, WD
DEV
CR, GL, PI
Iguales:
Peor UTA_WD: BU, HE
Mejor UTA_WD: BN, BU, CR, GL, HE, PI, VO, WD
LEE
Iguales:
Peor UTA_WD:
Mejor UTA_WD: BN, GL, PI, VO
TEK
CR
Iguales:
Peor UTA_WD: BU, HE, WD
Mejor UTA_WD: BN, HE, PI, VO
SAN
CR, GL
Iguales:
Peor UTA_WD: BU, WD
TEKA Mejor UTA_WD: BN, VO
GL, PI
Iguales:
Peor UTA_WD: BU, CR, HE, WD
TEKB Mejor UTA_WD: BN, GL, HE, VO
PI
Iguales:
Peor UTA_WD: BU, CR, WD
DER2 Mejor UTA_WD: BN, GL, PI, WD
VO
Iguales:
Peor UTA_WD: BU, CR, HE
DER3 Mejor UTA_WD: BN, BU, CR, GL, HE, PI, VO, WD
Iguales:
Peor UTA_WD:
MAO Mejor UTA_WD: CR, PI, WD
GL, VO
Iguales:
Peor UTA_WD: BN, BU, HE
Mejor UTA_WD: BN, HE, WD
UTA
GL, PI
Iguales:
Peor UTA_WD: BU, CR, VO
Mejor UTA_WD: CR, GL, PI, VO, WD
CIB
Iguales:
Peor UTA_WD: BN, BU, HE
TEKE Mejor UTA_WD: GL, HE, PI, VO, WD
BU
Iguales:
Peor UTA_WD:
YOU Mejor UTA_WD: BN, PI, VO
CR
Iguales:
Peor UTA_WD: HE, WD

BL2

- 472 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo CIB con Weight-Decay
BL1

Mejor CIB_WD: BN, HE, VO


GL, PI
Iguales:
Peor CIB_WD: BU, CR, WD

Mejor CIB_WD:
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
CLO
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
PRI
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
DEV
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
LEE
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
TEK
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
SAN
Iguales:
Peor CIB_WD:
TEKA Mejor CIB_WD:
Iguales:
Peor CIB_WD:
TEKB Mejor CIB_WD:
Iguales:
Peor CIB_WD:
DER2 Mejor CIB_WD:
Iguales:
Peor CIB_WD:
DER3 Mejor CIB_WD:
Iguales:
Peor CIB_WD:
MAO Mejor CIB_WD:
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
UTA
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
CIB
Iguales:
Peor CIB_WD:
TEKE Mejor CIB_WD:
Iguales:
Peor CIB_WD:
YOU Mejor CIB_WD:
Iguales:
Peor CIB_WD:

BL2

BN, VO
GL
BU, CR, HE, PI, WD
BN, VO
GL, PI
BU, CR, HE, WD
BN, VO
GL, PI
BU, CR, HE, WD
BN, VO, WD
GL
BU, CR, HE, PI
BN, BU, CR, GL, HE, PI, VO, WD
BN, GL, PI, VO, WD
HE
BU, CR
BN, PI, VO
GL
BU, CR, HE, WD
BN, VO
GL
BU, CR, HE, PI, WD
BN, GL, VO
BU, CR, HE, PI, WD
BN, GL, VO, WD
PI
BU, CR, HE
BN, CR, GL, PI, VO, WD
BU, HE
BN, HE, PI, VO
GL
BU, CR, WD
BN, BU, CR, HE, PI, WD
GL, VO
BN, GL, HE, PI, VO
CR
BU, WD
GL, HE, PI, VO, WD
BU
PI, VO, WD
HE
BN, CR

- 473 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo TEKE con Weight-Decay
BL1

Mejor TEKE_WD:
GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD

Mejor TEKE_WD:
GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
Mejor TEKE_WD:
CLO
GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
Mejor TEKE_WD:
PRI
GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
Mejor TEKE_WD:
DEV
GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
Mejor TEKE_WD: BU, GL, PI, VO
LEE
HE, WD
Iguales:
Peor TEKE_WD:
Mejor TEKE_WD: GL
TEK
BU
Iguales:
Peor TEKE_WD: HE, PI, VO, WD
Mejor TEKE_WD: HE
SAN
GL
Iguales:
Peor TEKE_WD: BU, PI, VO, WD
TEKA Mejor TEKE_WD:
GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
TEKB Mejor TEKE_WD: GL, HE
Iguales:
Peor TEKE_WD: BU, PI, VO, WD
DER2 Mejor TEKE_WD: GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
DER3 Mejor TEKE_WD: BU, GL, HE, PI, VO, WD
Iguales:
Peor TEKE_WD:
MAO Mejor TEKE_WD:
GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
Mejor TEKE_WD: HE
UTA
GL
Iguales:
Peor TEKE_WD: BU, PI, VO, WD
Mejor TEKE_WD: GL
CIB
BU
Iguales:
Peor TEKE_WD: HE, PI, VO, WD
TEKE Mejor TEKE_WD: BU, GL, HE, PI, VO
Iguales:
Peor TEKE_WD: WD
YOU Mejor TEKE_WD:
Iguales:
Peor TEKE_WD: HE, PI, VO, WD

BL2

- 474 -

II. APNDICES DEL CAPTULO 3

Tabla 58. Comparacin de mtodos ARNMF y ARNMF&WD. (Continuacin).


Mtodo YOU con Weight-Decay
BL1

Mejor YOU_WD: BN, HE, PI, VO


CR
Iguales:
Peor YOU_WD: WD

Mejor YOU_WD: BN, VO


PI
Iguales:
Peor YOU_WD: CR, HE, WD
Mejor YOU_WD: BN, PI, VO
CLO
CR
Iguales:
Peor YOU_WD: HE, WD
Mejor YOU_WD: BN, HE, PI, VO
PRI
CR
Iguales:
Peor YOU_WD: WD
Mejor YOU_WD: BN, VO
DEV
CR, PI
Iguales:
Peor YOU_WD: HE, WD
Mejor YOU_WD: BN, CR, HE, PI, VO, WD
LEE
Iguales:
Peor YOU_WD:
Mejor YOU_WD: BN, PI, VO
TEK
CR
Iguales:
Peor YOU_WD: HE, WD
Mejor YOU_WD: BN, PI, VO
SAN
CR
Iguales:
Peor YOU_WD: HE, WD
TEKA Mejor YOU_WD: BN, VO
PI
Iguales:
Peor YOU_WD: CR, HE, WD
TEKB Mejor YOU_WD: BN, VO
PI
Iguales:
Peor YOU_WD: CR, HE, WD
DER2 Mejor YOU_WD: BN, PI
Iguales:
Peor YOU_WD: CR, HE, VO, WD
DER3 Mejor YOU_WD: BN, CR, PI, VO
HE
Iguales:
Peor YOU_WD: WD
MAO Mejor YOU_WD: CR, HE, PI
Iguales:
Peor YOU_WD: BN, VO, WD
Mejor YOU_WD:
UTA
PI
Iguales:
Peor YOU_WD: BN, CR, HE, VO, WD
Mejor YOU_WD: CR, HE, PI
CIB
VO
Iguales:
Peor YOU_WD: BN, WD
TEKE Mejor YOU_WD: HE, PI, VO
Iguales:
Peor YOU_WD: WD
YOU Mejor YOU_WD: PI
CR, VO
Iguales:
Peor YOU_WD: BN, HE, WD

BL2

- 475 -

Anda mungkin juga menyukai