Tesis Doctoral
Realizada por: Mercedes Fernndez Redondo
Dirigida por: Carlos A. Hernndez Espinosa
Castelln, 11 de Septiembre de 2001
Agradecimientos
Quiero expresar mi agradecimiento a todas aquellas
personas que me han apoyado y me ayudaron durante la
realizacin de esta Tesis Doctoral.
En especial a Dr. Carlos Hernndez Espinosa, director de
esta Tesis Doctoral, sin cuyos consejos y colaboracin no
hubiese sido posible este trabajo. Tambin quiero expresarle
mi agradecimiento por su inters en la creacin y desarrollo
del Grupo de Investigacin de Redes Neuronales y
Computacin Suave, al cual pertenezco.
Gracias tambin a mi familia y amigos.
NDICE
1
2
5
11
18
24
26
- i-
NDICE
- ii -
NDICE
221
226
226
226
227
230
231
233
234
236
240
243
248
253
256
261
265
273
274
277
285
291
APNDICES
I. Apndices del Captulo 2
I.1. Resultados de los mtodos 1,4 y 5
I.2. Resultados de los mtodos 2 y 3
I.3. Comparacin entre los mtodos 2 y 3
II. Apndices del Captulo 3
II.1. Ordenacin de las entradas para ARNMF y ACE
II.2. Ordenacin de las entradas para ARNMF&WD
II.3. Eficiencias para los mtodos ARNMF y ACE
II.4. Eficiencias para los mtodos ARNMF&WD
II.5. Comparacin entre mtodos ARNMF y ACE
II.6. Comparacin entre mtodos ARNMF con y sin WD
- iii -
305
305
312
350
361
361
378
383
413
424
459
NDICE
- iv -
Prlogo
- v-
- vi -
- vii -
- viii -
Captulo 1
INTRODUCCIN
1.1. Introduccin
1.2. Definicin de Red Neuronal y algoritmo de
aprendizaje
1.3. Motivaciones de la Investigacin
1.4. Arquitectura MF y algoritmo Backpropagation
1.5. Descripcin de las Bases de Datos
1.6. Herramientas de trabajo: PC, SUN, Matlab
1.7. Bibliografa del Captulo
1.1. Introduccin
En este captulo nos ocuparemos slo de aquellas cuestiones sobre redes
neuronales que son imprescindibles para la investigacin que pretendemos
realizar, puesto que nuestro inters se centra en mejorar diversos aspectos del
diseo de la red neuronal Multilayer Feedforward.
Veremos en primer lugar algunas definiciones clsicas de red neuronal con
la intencin de aportar una pequea base sobre el tema. En segundo lugar,
describiremos detalladamente las motivaciones de esta investigacin destacando
el gran inters de realizar estudios comparativos entre diversos mtodos existentes
para resolver un determinado problema. Posteriormente, se describir la
arquitectura Multilayer Feedforward y el algoritmo ms empleado usualmente en
su entrenamiento, Backpropagation.
Finalmente, se presentan las herramientas de trabajo empleadas en el
desarrollo de la Tesis Doctoral: bases de datos, software y equipamiento (PCs).
-1-
-2-
-4-
Problemas de clasificacin
-5-
-6-
-7-
-8-
En la figura 2 se
muestra una clasificacin
porcentual de los nuevos
algoritmos de aprendizaje
propuestos en los aos
1993-1994, en funcin del
nmero de problemas reales
que se usaron para su
evaluacin
experimental.
Como se aprecia en la figura
tan slo en un 2% de los Fig.2. Porcentaje de algoritmos de aprendizaje
en funcin del nmero de problemas
nuevos algoritmos que se
reales usados para su comparacin.
proponen utilizaron seis o
ms problemas reales. Todo
esto, lleva a la situacin de tener varios procedimientos para realizar una
determinada cosa, y no saber cul es el ms eficiente o idneo, dificultando la
eleccin de uno por aquella persona que pretenda realizar una aplicacin. La
determinacin de cules son los procedimientos ms eficientes o idneos, es de
especial importancia tanto para el transvase de tecnologa avanzada existente al
mbito industrial, como para el progreso en s del campo de redes neuronales.
Hemos usado la referencia [2], del ao 1996, para mostrar que la situacin
respecto al nmero de comparaciones realizadas y el nmero de problemas a los
que se aplican los nuevos algoritmos no ha variado mucho a lo largo de los aos,
la situacin pues est estancada, por lo que consideramos de gran inters realizar
comparaciones entre diferentes tcnicas existentes para el diseo de aspectos
concretos de la red.
Tambin consideraremos importante utilizar un nmero suficiente de
problemas para medir la eficiencia de los mtodos que estudiemos.
Esta Tesis Doctoral se titula: Hacia un diseo ptimo de la Arquitectura
Multilayer Feedforward. Como indica el ttulo, se trata en ella de intentar
optimizar algunos aspectos sobre el diseo de la red. Con la palabra optimizar
no pretendemos expresar que se realizarn nuevos procedimientos para mejorar el
diseo de la red, sino que se har un estudio detallado de procedimientos ya
existentes y se justificar cual de ellos resulta ptimo en cada uno de los aspectos
de diseo que trataremos. Nuestro principal inters, ser estudiar por separado
diversos aspectos sobre el diseo de la red, realizando para ello un estudio de los
diferentes mtodos existentes para solucionar ese aspecto concreto.
Posteriormente, se llevar a cabo un anlisis comparativo entre los mtodos
estudiados.
-9-
- 10 -
- 11 -
Saturacin
(entradas positivas)
0.8
f(A)
0.6
modo lineal
0.4
0.2
0
-10
Saturacin
(entradas negativas)
-5
10
1
1+ e -x
(1.1)
Para cada capa tendremos un vector formado por los valores de entrada y
otro por los de salida de las neuronas de dicha capa.
RED MULTILAYER FEEDFORWARD CON UNA CAPA OCULTA
En la figura 4 se encuentra dibujada la estructura de una red Multilayer
Feedforward de tres capas.
Llamemos a los vectores de salida de las diferentes capas como sigue.
Capa de entrada
Capa oculta
Capa de salida
wiij ai + q j
i =1
- 12 -
(1.2)
o o1
o ok
...
O1
......
Ok
oi1
oiNs
1 ,k
w h N h ,k
1
1 ,1
ONs
oik
wh
wh
o oN s
w h j ,1
wh
Ns
N h ,1
w h j ,k
wh
h o1
wi
h oN h
......
Hj
hi1
w h N h ,N s
j ,N s
h oj
....
H1
wh
1 ,N s
HNh
hij
1 ,1
wi
wi
hiNh
N ,1
i ,1
wi
wi
1 ,j
wi
i ,j
N ,j
1
wi
i
I1
i
wi
1 ,N h
...
Ii
i
wi
i ,N h
......
Nh
N ,N h
IN
i
- 13 -
Nh
wh jk ho j + x k
(1.3)
j =1
1
1 + exp( -hi j )
(1.4)
1
1 + exp( -oik )
(1.5)
- 14 -
1
2
Ns
(t P,k - oo P,k )
(1.6)
k =1
El error total ser la suma para todos los patrones de los errores obtenidos
en la ecuacin (1.6).
El proceso de aprendizaje consiste en minimizar (respecto de los pesos) la
funcin de error para todos los patrones del conjunto de entrenamiento, los cuales
se van presentando a la red en iteraciones sucesivas hasta conseguir la
convergencia de la funcin de error.
Para cada iteracin los pesos de la red se irn modificando y modificarn las
entradas y salidas de las neuronas y el error en la siguiente iteracin.
El procedimiento a seguir ser:
1)Inicializar aleatoriamente o mediante algn mtodo los pesos de la red.
2)Introducir un patrn y modificar los pesos de la red segn las ecuaciones:
E P
Dwh j ,k (t + 1) = h wh
j ,k
+ b Dwh j ,k (t );
(1.7)
wh j ,k (t + 1) = wh j ,k (t ) + Dwh j ,k (t + 1)
E P
Dwii , j (t + 1) = h wi
i, j
+ b Dwii , j (t );
(1.8)
- 15 -
E P
ooP,k
oiP ,k
ooP,k oiP ,k wh j ,k
(1.9)
= -(tP ,k - ooP ,k )
ooP ,k
(1.10)
e- x
(1 + e - x )2
= f ( x ) (1 - f ( x ))
(1.11)
= oo P ,k (1 - oo P,k )
oi P ,k
wh j ,k
= ho P, j
(1.12)
(1.13)
(1.14)
= d P ,k ho P,k
- 16 -
(1.15)
oo P
P ,k
oo P ,k oi P ,k
oi P ,k wii , j
(1.16)
A su vez:
oi P,k
wii , j
oi P ,k
ho P,k
ho P ,k hi P ,k
hi P ,k wii , j
(1.17)
oo P
k
P ,k
oo P,k
oi P ,k
oi P ,k
ho P,k
ho P ,k hi P ,k
hi P,k wii , j
(1.18)
= i P ,k
(1.19)
(1.20)
d h P , j =
d P,k wh j,k ho P, j (1 - ho P, j )
(1.21)
= d h P , j i P, j
- 17 -
(1.22)
- 18 -
Los datos disponibles son 625. Hemos usado 500 ejemplos para el
entrenamiento y 125 para el test.
Cylinder Bands:
En este problema se trata de predecir si se producirn retardos en el proceso
conocido en ingls como cylinder bands, en una mquina de impresin de
rotograbado.
La prediccin se realiza en funcin de 39 parmetros distintos que intentan
describir las condiciones de operacin de la mquina. Los datos son reales y el
problema tiene pues 39 atributos de entrada numricos.
Se utilizarn dos clases, una para indicar que hay retardos en el proceso y la
otra para indicar que no los hay.
Aunque la base de datos dispone de 512 ejemplos gran parte de ellos tienen
atributos desconocidos, por lo que al final nos quedamos con solo 277 ejemplos.
De ellos utilizaremos 190 para el entrenamiento y 87 para el test.
BUPA Liver Disorders:
El problema es determinar si un paciente tiene algn problema de hgado o
no. Las entradas son los resultados de cinco tests realizados en la sangre y el
consumo medio de alcohol por da. Los datos son reales y fueron obtenidos por la
compaa BUPA Medical Research Ltd.
Tenemos seis atributos o entradas numricas y dos clases: si hay o no
problemas en el hgado.
Los datos disponibles son 345. Hemos usado 245 ejemplos para el
entrenamiento y 100 ejemplos para el test.
Credit Approval:
El problema consiste en determinar si una peticin de una tarjeta de crdito
debe ser concedida o no. Se trata de un problema de clasificacin de dos clases.
El nmero de entradas es 15 y su significado se desconoce, puesto que se
trata de datos reales en los que se ha pretendido garantizar la confidencialidad.
La base de datos consta de 690 ejemplos pero 37 de ellos tienen entradas
desconocidas o perdidas. Hemos usado 653 ejemplos, 453 para el entrenamiento y
200 para el test.
- 19 -
Display1:
El problema es determinar el nmero que est representando en un display
led de 7 segmentos, sabiendo si cada uno de los leds est encendido o apagado.
Se trata de un problema de clasificacin con diez clases (cada uno de los
diez dgitos) y siete entradas binarias, una por cada led. Para complicar el
problema se han seleccionado aleatoriamente un 10% de los valores de las
entradas y se ha invertido su valor binario.
La base de datos generada consta de 2900 ejemplos, 900 para el
entrenamiento y 2000 para el test.
Display2:
Es exactamente el mismo problema que Display1, solo que se han aadido
un total de 7 entradas binarias adicionales cuyos valores son totalmente aleatorios
y por lo tanto absolutamente irrelevantes. En total tendremos 14 entradas.
La base de datos generada consta de 2900 ejemplos, 900 para el
entrenamiento y 2000 para el test.
Glass Identification Database:
El problema consiste en clasificar trozos de vidrio como pertenecientes a
una de las seis clases siguientes: artculos de mesa, recipientes, faros, ventanas de
edificios, ventanas de edificios tipo float processed y ventanas de vehculos tipo
float processed (no existen ventanas de vehculos que no sean tipo float
processed por lo que no se considera como una clase). Parece ser que esta
clasificacin tiene mucho inters en mbitos de investigacin criminolgica.
Los datos son reales y para realizar la clasificacin se utiliza diez entradas,
entre ellas el valor del ndice de refraccin y la cantidad porcentual de diversos
elementos en su composicin, Na, Mg, Al, Si, K, Ca, Ba, Fe.
El problema consta de 214 ejemplos, hemos usado 150 ejemplos para el
entrenamiento y 64 para el test.
Heart Disease Database:
El problema consiste en determinar si un paciente tiene alguna enfermedad
de corazn, ser pues un problema de dos clases. Para predecirlo, se utilizan 13
entradas de ndole diversa, desde algn parmetro del ECG, hasta el hecho de que
el paciente sea o no fumador.
- 20 -
Los datos son reales y fueron recopilados por varias clnicas especializadas
internacionales.
El nmero de ejemplos total de la base de datos es 920 pero entre ellos hay
muchos que tienen entradas desconocidas, por lo que finalmente usamos 297, 210
como ejemplos para el entrenamiento y 87 para el test.
Image Segmentation Data:
Los ejemplos de esta base de datos fueron obtenidos aleatoriamente de un
conjunto de imgenes exteriores. Las imgenes fueron segmentadas manualmente
para obtener la clasificacin de cada ejemplo. Un ejemplo representa una regin
de 3x3 puntos de la imagen. El objetivo es determinar a cul de las siete siguientes
clases pertenece el ejemplo: csped, ventana, cemento, follaje, nieve, ladrillo o
camino, es decir siete clases.
Para la clasificacin se utilizan un total de 19 entradas que representan
caractersticas del conjunto de puntos que forman el ejemplo. Los datos son
reales.
Utilizamos un total de 2311 ejemplos, 1500 para el entrenamiento y 811
para el test.
Mushroom Database:
El problema consiste en clasificar una seta como comestible o venenosa
(dos clases).
Para ello se utilizan un total de 22 caractersticas generales de la seta y su
hbitat, siendo los datos reales.
Se dispone en la base de datos de 8124 ejemplos, de los cuales 2480 tienen
entradas desconocidas o perdidas. Nos quedamos finalmente con 5644 ejemplos y
se usaron 4144 para el entrenamiento y 1500 para el test.
The Monk's Problems 1, 2 y 3:
Se trata de tres problemas artificiales con entradas binarias. No obstante,
tienen inters porque fueron utilizados para realizar la primera comparacin
internacional entre algoritmos de aprendizaje de mquinas. En los problemas hay
dos clases y seis entradas.
Se dispone de 432 ejemplos, 332 para el entrenamiento y 100 para el test.
- 21 -
- 22 -
- 23 -
- 24 -
- 25 -
- 26 -
Captulo 2
- 27 -
2.1. INTRODUCCIN
2.1. Introduccin
El objetivo de este captulo es realizar, para la arquitectura de Red Neuronal
Multilayer Feedforward, un estudio comparativo entre los procedimientos que
existen para utilizar entradas desconocidas.
Veamos en primer lugar, cul es el significado de una entrada desconocida.
Supongamos que se quiere resolver un cierto problema utilizando redes
neuronales. Lo primero que necesitamos conocer es qu informacin queremos
que procese la red (informacin de entrada en las neuronas de la red). En general
la informacin de entrada a la red (ejemplos) suele estar bien determinada. Sin
embargo, puede ocurrir que tras el entrenamiento, nos encontremos algn caso
(ejemplo de entrada) en el cual no toda la informacin de entrada est definida, es
decir, la entrada a una o ms neuronas de la red no se conozca, y, an as,
queramos obtener cul ser la clasificacin ms probable que proporcione la red
con la informacin de que disponemos.
Este problema es un caso muy tpico en aplicaciones de diagnstico mdico,
en donde uno o varios de los sntomas o pruebas en un determinado paciente
(entradas a ciertas neuronas de entrada de la red) pueden no conocerse. En [1] se
describen algunos ejemplos.
Como se describe en la referencia [1], es de esperar que la red neuronal sea
capaz de proporcionar algn diagnstico para ese paciente (clasificacin de
ejemplos con entradas desconocidas), a pesar de que la informacin de entrada sea
incompleta. El problema es cmo obtener la clasificacin de un ejemplo cuya
informacin es incompleta, es decir, cmo codificar estas entradas desconocidas o
cmo decirle a la red neuronal que una cierta entrada se desconoce. La solucin
ms simple podra ser codificar las entradas desconocidas con un valor, pero
cul?
Existen diferentes mtodos en la bibliografa para abordar el problema de
codificacin de las entradas desconocidas y no se conoce cul es el ms eficiente.
El objetivo de este captulo es realizar una comparacin experimental entre dichos
mtodos para ver cul de ellos resuelve mejor el problema.
Para algunos de los mtodos los autores proponen incluir entradas
desconocidas dentro de los ejemplos del conjunto de entrenamiento. As, razonan
que no ser posible que la red responda adecuadamente ante entradas
desconocidas si no se han usado antes en el entrenamiento. Sin embargo, la
inclusin de entradas desconocidas en el conjunto de entrenamiento puede generar
diversos problemas.
- 28 -
2.1. INTRODUCCIN
- 29 -
- 30 -
{a1,a2, ...,aN} , ai
"i
- 31 -
Por ello, surge una nueva propuesta descrita en las referencias [3] y [4]. Se
trata de introducir la aritmtica de intervalos, tanto en la estructura Multilayer
Feedforward, como en el algoritmo de aprendizaje Backpropagation de forma ms
eficiente y general que la propuesta en [2].
En dichas referencias, se propone una forma de permitir la introduccin de
intervalos vectoriales tanto en la capa de entrada (ejemplos de entrada), como en
la de salida (objetivos), por lo que la propagacin de la seal de una capa a otra se
har tambin con intervalos vectoriales.
El algoritmo de aprendizaje deber de adaptarse a esta estructura, de forma
que se salvarn los inconvenientes que presentaba el mtodo descrito en [2]. El
algoritmo final ser una verdadera generalizacin de Backpropagation a aritmtica
de intervalos, ya que s utilizamos vectores de entrada y salida puntuales todas las
ecuaciones se reducirn a las clsicas utilizadas en Multilayer Feedforward con
Backpropagation.
B = [ bI ,bS ]
(2.1)
m0
m<0
si
si
(2.2)
(2.3)
( [ a x 2 , c x 2 + d y ] ) = [ 2 a x , 2 c x + d y ] ,
[ 2 c x + d y , 2 a x] ,
- 32 -
si
si
2ax 2cx + dy
2cx + dy 2ax
(2.4)
(2.5)
1 + exp( - x )
1
1
,
f ( A) = f ( [ a I , a S ] ) = [ f (a I ), f (a S )] =
I
S
1 + exp(- a ) 1 + exp(- a )
(2.6)
f(A)=[f(a I ),f(a S )]
1
0.8
0.6
0.4
0.2
0
-10
-8
-6
-4
-2
A=[a I ,a S ]
10
- 33 -
(2.7)
Capa Oculta:
(2.8)
Capa de Salida:
(2.9)
hi j = wiij a i + j
(2.10)
i =1
Nh
oi k = wh jk ho j + x k
(2.11)
j =1
ho j =
oo k =
1
1 + exp(-hi j )
1
1 + exp(-oi k )
(2.12)
(2.13)
(2.14)
Igual que en la estructura Multilayer Feedforward, los pesos entre las capas
de la estructura de la red neuronal que relacionan la salida de una capa con la
entrada de la siguiente tendrn valores reales.
La entrada a una neurona que no pertenezca a la capa de entrada ser la
suma de las contribuciones (salidas ponderadas por los pesos) de las neuronas de
la capa anterior. Estas operaciones siguen siendo iguales. La diferencia radica en
que ahora se multiplicarn los pesos (nmeros reales) entre dos neuronas por el
intervalo que representa la salida de la neurona de la capa anterior, por lo que
aparecern tambin multiplicaciones y sumas de intervalos vectoriales.
- 34 -
- 35 -
(2.15)
(2.16)
(2.17)
wii, j I P,i + q j
(2.18)
i =1
Donde:
neth PI , j =
neth PS , j =
wi i , j i PI ,i +
wii, j i PS,i + q j
i =1
wii , j > 0
i =1
wii , j < 0
i =1
wii , j > 0
i =1
wii , j < 0
(2.19)
(2.20)
En las ecuaciones anteriores wii,j son los pesos que conectan la neurona j de
la capa oculta con la neurona i de la capa de entrada. La aparicin en las
ecuaciones de dos sumatorios se debe a la propiedad que vimos antes sobre el
producto de un intervalo por un nmero real, ecuacin (2.2).
- 36 -
Nh
wh j,k H P, j + x k
(2.21)
j =1
Donde:
neto PI ,k =
neto PS ,k =
Nh
wh j,k h PI , j +
Nh
wh j,k hPS, j + x k
j =1
wh j , k > 0
j =1
wh j , k < 0
Nh
Nh
j =1
wh j , k > 0
j =1
wh j , k < 0
(2.22)
(2.23)
En las ecuaciones anteriores whj,k son los pesos que conectan la neurona k
de la capa de salida con la neurona j de la capa oculta.
Cabe destacar que si en las ecuaciones anteriores nos restringimos a
vectores puntuales, es decir, las variables etiquetadas con los ndices I y S
representan el mismo valor, obtendremos exactamente las mismas ecuaciones que
vimos en el captulo primero para Multilayer Feedforward.
(2.24)
T P = {[ t PI ,1 , t PS ,1 ] , [ t PI ,2 , t PS ,2 ] , L , [ t PI , Ns , t PS , Ns ]}
(2.25)
- 37 -
1
4
2
2
{ ( t PI ,k - o PI ,k ) + ( t PS,k - o PS ,k ) }
Ns
(2.26)
k =1
E P
wi i , j (t + 1) = wi
i, j
+ wh j ,k (t )
(2.27)
+ wii , j (t )
(2.28)
- 38 -
E P
o PI ,k
o PI , k neto PI ,k
E P
neto PI ,k
wh j ,k
=
wh j , k
E P
E PI
wh j ,k
o PS ,k
o PS ,k neto PS , k
neto PS ,k
(2.29)
wh j , k
E PS
(2.30)
wh j ,k
1
= - ( t PI ,k - o PI ,k )
2
(2.31)
exp(- x)
(1 + exp(- x) ) 2
= f ( x) (1 - f ( x))
(2.32)
= o PI ,k (1- o PI ,k )
(2.33)
h PI , j
=
h PS , j
si
wh j ,k 0
si
wh j ,k < 0
- 39 -
(2.34)
h PS , j
=
h PI , j
neto PS ,k
wh j ,k
si
wh j ,k 0
si
wh j ,k < 0
(2.35)
(2.36)
1
d PS,k = - ( t PS ,k - o PS ,k ) o PS ,k (1 - o PS ,k )
2
(2.37)
E P
wh j ,k
si
wh j ,k 0
si
wh j ,k < 0
(2.38)
E PI
wii , j
E PS
(2.39)
wii , j
Vemos que ahora depender de las variables oP,k, netoP,k y hP,j. Tendremos:
E PI
wii , j
E PS
wii , j
o IP
k
P ,k
E P
o PS ,k
o PI ,k
neto PI ,k
o PS ,k
neto PS ,k
neto PI ,k
(2.40)
wii , j
neto PS ,k
(2.41)
wii , j
neto PI ,k
wii , j
neto PI , k
h PI , j
neto PI , k
h PS , j
h PI , j
neth PI , k
h PS , j
neth PS , k
neth PI , k
si
wh j ,k 0
si
wh j ,k < 0
wii , j
neth PS , k
wii , j
- 40 -
(2.42)
neto PS ,k
wii , j
neto PS , k
h PS , j
neto PS , k
h PI , j
h PS , j
neth PS , k
h PI , j
neth PI , k
neth PS , k
si
wh j ,k 0
si
wh j ,k < 0
wii , j
neth PI , k
wii , j
(2.43)
E
h PI , j neth PI ,k
o PI ,k
neto PI ,k
I
I
I
I
k , wh j , k 0 o P
neto
h
neth
wi i , j
,k
P, j
P ,k
P,k
E
h PS , j nethPS ,k
o PI , k
neto PI ,k
I
I
S
S
k , wh j , k < 0 o P
neto
h
neth
wii , j
,k
P,k
P, j
P ,k
E
h PS , j nethPS ,k
o PS , k
neto PS ,k
S
S
S
S
k , wh j , k 0 o P
neto
h
neth
wii , j
,k
P,k
P, j
P ,k
E
h PI , j neth PI ,k
o PS , k
neto PS ,k
S
S
I
I
k , wh j , k < 0 o P
neto
h
neth
wii , j
,k
P,k
P, j
P ,k
(2.44)
nethPI ,k
I
I
I
d
wh
h
h
1
(
)
P, j
P, k j , k P, j
k , wh j , k 0
wii , j
neth PS ,k
I
S
S
d
wh
h
h
1
(
)
P, j
P ,k j ,k P, j
k , wh j , k < 0
wii , j
neth PS ,k
S
S
S
d
wh
h
h
1
(
)
P, j
P ,k j ,k P, j
k , wh j , k 0
wii , j
neth PI ,k
S
I
I
(
)
d
wh
h
h
1
P, j
P ,k j ,k P, j
k , wh j , k < 0
wii , j
(2.45)
Solo queda calcular la ltima derivada que depende del signo de los pesos:
nethPI , j
wii , j
neth PS , j
wii , j
iPI ,i
si
wii , j 0
iPS ,i
si
wii , j < 0
i PS ,i
si
wii , j 0
i PI ,i
si
wii , j < 0
- 41 -
(2.46)
(2.47)
dh PI , j =
d PI , k wh j ,k +
d PS,k wh j ,k h PI , j (1 - h PI , j )
k , wh 0
k , wh j , k < 0
j,k
(2.48)
dh PS , j =
d PS, k wh j ,k +
d PI ,k wh j , k h PS , j (1 - h PS , j )
k , wh 0
k , wh j , k < 0
j,k
(2.49)
dh PI , j i PI ,i + dh PS , j i PS ,i
=
dh PS , j i PI ,i + dh PI , j i PS ,i
si
wii , j 0
si
wii , j < 0
(2.50)
E P = max
k =1
( t P , k - o P , k )2
2
tal que : o P ,k O P ,k
(2.51)
- 42 -
EP =
Ns
( t P,k - o PS ,k )2
2
k =1
k r
2
1
I
+ ( t P ,r - o P ,r )
2
(2.52)
+ a Dwh j ,k (t )
(2.53)
E P
Dwii , j (t + 1) = h wi
i, j
+ a Dwii , j (t )
(2.54)
E P
wh j ,k
E P
o PI ,k
o PI ,k wh j ,k
E P
o PS ,k
o PS ,k wh j ,k
= -(t P,k - o PI ,k )
= -(t P,k - o PS ,k )
o PI ,k
wh j ,k
o PS ,k
wh j ,k
si
k=r
si
k r
(2.55)
Para calcular las derivadas de oIP,k y oSP,k usamos las siguientes ecuaciones:
o PI ,k
wh j ,k
o PS ,k
wh j ,k
o PI ,k
neto PI ,k
o PS ,k
neto PS ,k
neto PI ,k
wh j ,k
neto PS ,k
wh j ,k
= o PI ,k (1 - o PI ,k )
neto PI ,k
= o PS ,k (1 - o PS ,k )
neto PS ,k
- 43 -
wh j ,k
wh j ,k
(2.56)
(2.57)
E P
wh j ,k
neto PI ,k
I
I
I
(
)
1
(
)
t
o
o
o
P ,k
P ,k
P ,k
P ,k
wh j ,k
=
neto PS ,k
S
S
S
- (t P,k - o P,k ) o P,k (1 - o P,k )
wh j ,k
si k = r
(2.58)
si k r
(2.59)
d PS,k = - ( t P,k - o PS ,k ) o PS ,k (1 - o PS ,k )
(2.60)
E P
wh j ,k
d PI ,k
d PS,k
=
d PI ,k
d PS,k
h PI , j
si
k=r
wh j ,k 0
h PS , j
si
k r
wh j ,k 0
h PS , j
si
k=r
wh j ,k < 0
h PI , j
si
k r
wh j ,k < 0
(2.61)
E P
wii , j
E P
o PI ,k
o PI ,k wii , j
E P
o PS ,k
o PS ,k wii , j
= -(t P ,k - o PI ,k )
=-
Ns
o PI ,k
(t P ,k - o PS ,k )
k =1
k r
si
wii , j
o PS ,k
si
whi , j
k=r
(2.62)
kr
o PI ,k
wii , j
o PI ,k
I
neto P ,k
=
o PI ,k
neto PI ,k
neto PI ,k
h PI , j
neto PI ,k
h PS , j
h PI , j
neth PI , j
h PS , j
neth PS , j
- 44 -
neth PI , j
wii , j
neth PS , j
wii , j
si
wh j ,k 0
si
wh j ,k < 0
(2.63)
o PS ,k
wii , j
o PS ,k
S
neto P ,k
=
o PS ,k
neto PS ,k
neto PS ,k
h PS , j
neto PS ,k
h PI , j
h PS , j
neth PS , j
h PI , j
neth PI , j
neth PS , j
wii , j
neth PI , j
wii , j
si
wh j ,k 0
si
wh j ,k < 0
(2.64)
Utilizando las ecuaciones (2.46) y (2.47), la derivada del lmite inferior ser:
o PI ,k
wii , j
o PI ,k
o PI ,k
=
o PI ,k
o PI ,k
(1 - o PI ,k ) wh j ,k h PI , j (1 - h PI , j ) i PI ,i
si
wii , j 0
wh j ,k 0
si
wii , j < 0
wh j ,k 0
si
wii , j 0
wh j ,k < 0
si
wii , j < 0
wh j ,k < 0
(1 - o PS ,k ) wh j ,k h PS , j (1 - h PS , j ) i PS ,i
si
wii , j 0
wh j ,k 0
(1 - o PS ,k ) wh j ,k h PS , j (1 - h PS , j ) i PI ,i
si
wii , j < 0
wh j ,k 0
(1 - o PS ,k ) wh j ,k h PI , j (1 - h PI , j ) i PI ,i
si
wii , j 0
wh j ,k < 0
(1 - o PS ,k ) wh j ,k h PI , j (1 - h PI , j ) i PS ,i
si
wii , j < 0
wh j ,k < 0
)
)
(1 (1 - o PI ,k ) wh j ,k h PS , j (1 - h PS , j ) i PS ,i
(1 - o PI ,k ) wh j ,k h PS , j (1 - h PS , j ) i PI ,i
1 - o PI ,k
wh j ,k h PI , j
h PI , j
i PS ,i
(2.65)
o PS ,k
wii , j
o PS ,k
o PS ,k
=
o PS ,k
o PS ,k
(2.66)
E P
wii , j
d PI ,k wh j ,k h PI , j (1 - h PI , j ) i PI ,i
d PI ,k wh j ,k h PI , j (1 - h PI , j ) i PS ,i
d I wh h S (1 - h S ) i S
j ,k
P, j
P, j
P ,i
P ,k
d I wh h S (1 - h S ) i I
j ,k
P, j
P, j
P ,i
P ,k
Ns
d S wh j ,k hPS , j (1 - h PS , j ) i PS ,i
P ,k
= k =1k r
Ns
d PS,k wh j ,k hPS , j (1 - h PS , j ) i PI ,i
k =1
k r
Ns
d PS,k wh j ,k hPI , j (1 - h PI , j ) i PI ,i
k =1k r
Ns
S
I
I
S
d P,k wh j ,k hP , j (1 - h P , j ) i P ,i
k =1k r
- 45 -
si k = r
wh j ,k 0 wii , j 0
si k = r
wh j ,k 0 wii , j < 0
si k = r
wh j ,k < 0 wii , j 0
si k = r
si k r wh j ,k 0 wii , j 0
si k r wh j ,k 0 wii , j < 0
si k r wh j ,k < 0 wii , j 0
si k r wh j ,k < 0 wii , j < 0
(2.67)
{ Oq,1 , Oq,2 ,L, Oq,Ns } = { [ oqI ,1 , oqS,1 ] , [ oqI ,2 , oqS,2 ] , K , [ oqI ,Ns , oqS,Ns ] }
(2.68)
Definicin 2 :
O q ,h < 2 O q , k
o qI ,h < o qI ,k
(2.69)
Definicin 3 :
Definicin 4 :
Definicin 5 : Sea Y = { k
o qS,h < o qI ,k
(2.70)
(2.71)
(2.72)
para
h = 1,2, L , Ns
- 46 -
con
hk
(2.73)
Oqh
Definicin 1
oSqh
oSqk
Oqk
Definicin 2
Definicin 3
Oqh
I
oqk
I
oqh
Oqk
Oqh
I
oqh
I
oqk
oSqk
Oqk
Oqh
Definicin 4
oSqh
I
oSqh oqk
- 47 -
E ( y | x c ) = E ( y | x c , x u ) P( x u | x c ) dx u
1
c
P( x )
NN ( x c , x u ) P( x c | x u ) dx u
(2.74)
Para una red entrenada NNi(x)=P(classi|x) por lo que basta con sustituir en
la ecuacin anterior los valores de E(y|xc) por P(classi|xc) y de NN(xc,xu) por
NNi(xc,xu)= P(classi| xc,xu).
Esta integracin sigue siendo problemtica. Se propone entonces, en el
mtodo de Ahmad y Tresp, una nueva aproximacin utilizando Ventanas de
Parzen.
Dado un conjunto de N patrones entrenados {(xk,yk) | k=1,...,N} podemos
aproximar la probabilidad de que se de un cierto patrn x como:
P( x )
(2.75)
G ( x; x k , s )
k =1
1
2
(2 p s )
1
exp
x - xk
2 s 2
(2.76)
G ( x c ; x c ,k , s )
N
k =1
- 48 -
(2.77)
E( y x ) =
NN ( x c , x u ) G( x c , x u ; x k ,s )dx u
k =1
(2.78)
G ( x c , x c ,k , s )
k =1
NN ( x
, x u ) G ( x c , x u ; x k , s )dx u NN ( x c , x u ,k ) G ( x c ; x c,k , s )
(2.79)
E( y x )
NN ( x c , x u,k ) G( x c ; x c,k ,s )
k =1
(2.80)
G ( x c ; x c ,k , s )
k =1
- 49 -
~
P(x k )
1
N -1
G( x k ; x l , )
(2.81)
l =1, l k
log P ( x k )
k
(2.82)
inputi =
ri, j input j m j
j
(2.83)
ri, j m j
j
Donde:
-mj es la componente de un vector que identifica si la entrada j de un cierto
patrn de entrada, input j es desconocida o no. Si es desconocida mj valdr
0 y si es conocida valdr 1.
-r es una matriz de coeficientes de redundancia (denominados as en la
referencia) cuyos elementos ri,j se calculan a partir de la ecuacin (2.84).
n
ri , j =
input k ,i input k , j
k =1
- 50 -
(2.84)
2.3. METODOLOGA
2.3. Metodologa
En primer lugar se realiz una recopilacin bibliogrfica para seleccionar
los mtodos ms representativos de mecanismos de codificacin de entradas
desconocidas, lo cules hemos descrito antes.
Para realizar el estudio hemos utilizado la siguiente metodologa.
- 51 -
2.3. METODOLOGA
2.3. METODOLOGA
- 53 -
2.3. METODOLOGA
1
N Nsalida
Ep
(2.85)
i =1
aciertos
(2.86)
- 54 -
2.3. METODOLOGA
8
4
39
6
15
7
14
10
13
19
22
6
6
6
166
8
21
16
30
3
3
2
2
2
10
10
6
2
7
2
2
2
2
2
2
3
2
2
- 55 -
2.3. METODOLOGA
- 56 -
2.3. METODOLOGA
POR
(2.87)
Nredes
(POR - PORMEDIO )2
Nredes - 1
Desv
Nredes
- 57 -
- 58 -
- 59 -
- 60 -
- 61 -
- 62 -
Vemos que el mtodo 4 funciona peor que los dems. Nosotros pensamos
que el mal funcionamiento del mtodo de probabilidad se puede deber a que las
aproximaciones que hacen sus autores a la hora de calcular las integrales no son
muy adecuadas.
En las figuras 16 y 17 se ha representado la eficiencia de los 5 mtodos para
los problemas DISPLAY1 y DISPLAY2 respectivamente y en las mismas
condiciones de antes (con 5% de entradas desconocidas en el entrenamiento).
Vemos que el mtodo 4 sigue funcionando mal y que el mtodo 5 funciona
bastante bien. Sin embargo a pesar de funcionar bien, el mtodo 5 presenta la
desventaja de que solo puede aplicarse a problemas con entradas binarias por lo
que su uso es bastante restringido.
Para estas dos bases de datos vemos que el mtodo 1 funciona muy mal. Ya
dijimos que la eficiencia de este mtodo dependa mucho de la base de datos a la
que se aplicar.
Como conclusin, podemos decir que el mtodo 1 da mejor eficiencia que el
mtodo 4 y que los mtodos que utilizan aritmtica de intervalos son los que
mejor resuelven la mayora de los problemas.
Por ello proponemos a continuacin una comparacin ms exhaustiva de los
mismos.
Comparacin entre mtodos de aritmtica de intervalos.
Como ya vimos, la diferencia bsica entre los mtodos 2 (de Hernndez) y 3
(de Ishibuchi) reside en que en el algoritmo de aprendizaje las funciones de error
propuestas son diferentes, y por lo tanto tambin lo son los algoritmos de
aprendizaje.
Nos referimos al mtodo de Hernndez como Algoritmo de Hernndez y
al mtodo de Ishibuchi lo denotaremos como Algoritmo de Ishibuchi.
Como vimos anteriormente en el test de aritmtica de intervalos se han
usado 5 reglas de clasificacin diferentes que se describen en las ecuaciones
(2.68), (2.69), (2.70), (2.71), (2.72).
Usaremos los 19 problemas que tenamos. Para cada problema, como
dijimos, se generaron 5 nuevos problemas con los diferentes porcentajes de
entradas desconocidas: 5, 10, 20, 30, 40. Tendremos 95 problemas a los que
aplicar estos mtodos.
- 63 -
80
60
40
20
0
Test 0%
Test 5%
0%
ENTRENAMIENTO
5% 10% 20% 30%
40%
80
60
40
20
0
Test 0%
Test 5%
0%
ENTRENAMIENTO
5% 10% 20% 30%
40%
- 64 -
120
100
80
60
40
20
0
Test 0%
ENTRENAMIENTO
5% 10% 20% 30%
40%
120
100
80
60
40
20
0
Test 0%
ENTRENAMIENTO
5% 10% 20% 30%
40%
- 65 -
100
80
60
40
20
0
Test 0%
ENTRENAMIENTO
5% 10% 20% 30%
40%
100
80
60
40
20
0
Test 0%
ENTRENAMIENTO
5% 10% 20% 30%
40%
- 66 -
76
74
72
70
68
66
64
62
60
Test 0%
Test 5%
ENTRENAMIENTO
5% 10% 20% 30% 40%
Fig.10. Porcentaje de correcta clasificacin en funcin del % de entradas
desconocidas para el problema PIMA. Mtodo 2.
80
75
70
65
60
55
Test 0%
Test 5%
ENTRENAMIENTO
5% 10% 20% 30%
40%
- 67 -
100
95
90
85
80
75
Test 0%
ENTRENAMIENTO
5% 10% 20% 30%
40%
100
95
90
85
80
75
70
Test 0%
ENTRENAMIENTO
5% 10% 20% 30%
40%
- 68 -
80
60
40
20
0
Test 0%
Test 5%
ENTRENAMIENTO
Mtodo 1 Mtodo 2 Mtodo 3 Mtodo 4
Fig.14. Porcentaje de correcta clasificacin en funcin del % de entradas
desconocidas en el test (5% en entrenamiento) para el problema PIMA.
Mtodo 1, 2, 3 y 4.
100
80
60
40
20
0
Test 0%
Mtodo 1
ENTRENAMIENTO
Mtodo 2 Mtodo 3
Mtodo 4
- 69 -
80
60
40
20
0
Test 0%
Test 5%
ENTRENAMIENTO
Mtodo 1
Mtodo 4
Mtodo 2
Mtodo 5
Mtodo 3
80
60
40
20
0
Test 0%
Test 5%
ENTRENAMIENTO
Mtodo 1 Mtodo 2 Mtodo 3
Mtodo 4 Mtodo 5
Fig.17. Porcentaje de correcta clasificacin en funcin del % de entradas
desconocidas en el test (5% en entrenamiento) para el problema
DISPLAY2. Mtodo 1, 2, 3, 4 y 5.
- 70 -
Para cada problema se entrenaron, como dijimos antes, 6 redes con diferente
inicializacin de pesos y se promediaron los resultados obteniendo un error.
Se estudio la eficiencia obtenida utilizando en el entrenamiento el
Algoritmo de Hernndez y el Algoritmo de Ishibuchi.
En las tablas de la 62 a la 66 del apndice I de la Tesis Doctoral se compara
la eficiencia de los algoritmos de Hernndez y Ishibuchi para el caso de igual
porcentaje de entradas desconocidas en el entrenamiento y test, y para las
diferentes reglas de clasificacin.
Para una cierta regla de clasificacin, por ejemplo POR1 (tabla 62) y una
cierta base de datos, se dan los diferentes porcentajes de entradas desconocidas y
la eficiencia obtenida para los algoritmos de Hernndez y Ishibuchi.
Para poder comparar los resultados, agruparemos los mismos en diferentes
categoras segn la eficiencia de un algoritmo sea mejor o peor que la del otro.
Realizamos la siguiente clasificacin:
1: Algoritmo de Hernndez igual que el de Ishibuchi.
2: Algoritmo de Hernndez mejor que el de Ishibuchi en menos del 2%.
3: Algoritmo de Hernndez mejor que el de Ishibuchi entre 2 y 10%.
4: Algoritmo de Hernndez mejor que el de Ishibuchi en ms del 10%.
5: Algoritmo de Hernndez peor que el de Ishibuchi en menos del 2%.
6: Algoritmo de Hernndez peor que el de Ishibuchi entre 2 y 10%.
7: Algoritmo de Hernndez peor que el de Ishibuchi en ms del 10%.
Por ejemplo, para el problema ABALONE y la regla de clasificacin POR1,
un 5% quiere decir que se ha usado 5% de entradas desconocidas en el conjunto
de entrenamiento y en el conjunto de test y se da la medida de la eficiencia del
algoritmo de Hernndez, 57.6, y la del algoritmo de Ishibuchi, 54.9. Como la
eficiencia del algoritmo de Hernndez es mayor que la de Ishibuchi en ms de un
2%, clasificamos este resultado en la categora 3.
Esta operacin se realiz con todos los problemas y reglas de clasificacin y
una vez obtenidas todas las categoras se procedi a contar los resultados.
- 71 -
POR1
POR2
POR3
POR4
POR5
1
17
16
16
17
20
2
23
22
23
10
7
3
17
17
20
10
7
Categora
4
5
34
2
34
4
29
4
8
21
16
19
6
2
2
3
22
20
7
0
0
0
7
6
Mejor Hernndez
74
73
72
28
30
Mejor Ishibuchi
4
6
7
50
45
- 72 -
Iguales
17
16
16
17
20
34
34
23
22
17
17
Mejor Algoritmo
de Ishibuchi
Mejor Algoritmo
de Hernndez
29
POR 1
17
16
Mejor Algoritmo
de Ishibuchi
23
22
20
Mejor Algoritmo
de Hernndez
POR 2
21
17
16
10
0
Mejor Algoritmo
de Ishibuchi
Mejor Algoritmo
de Ishibuchi
Mejor Algoritmo
de Hernndez
POR 3
20
19
POR 4
10
Mejor Algoritmo
de Hernndez
20
16
7
Mejor Algoritmo
de Ishibuchi
POR 5
Mejor Algoritmo
de Hernndez
16
16
74
POR1
17
20
50
45
28
30
POR4
POR5
72
73
POR2
POR3
- 73 -
- 74 -
2.5. CONCLUSIONES
2.5. Conclusiones
En este captulo hemos presentado una comparacin de 5 mtodos de
codificacin de entradas desconocidas.
La comparacin se realiz partiendo de 19 problemas en los cuales se
introdujeron 6 diferentes porcentajes de entradas desconocidas, 0, 5, 10, 20, 30 y
40 %, obteniendo as un total de 95 problemas sobre los que medir la eficiencia de
los mtodos.
La comparacin final entre diversos mtodos nos llev a las siguientes
conclusiones.
Si analizamos los resultados para los diferentes porcentajes de entradas
desconocidas en el entrenamiento y test podemos ver la influencia de los mismos
sobre los diferentes mtodos.
As, para el mtodo 1 se observa que funciona en general bien, pero presenta
alta variabilidad en el test al variar el porcentaje de entradas desconocidas. La
eficiencia depender en gran medida del problema particular. En algn problema
hemos encontrado un porcentaje de entradas desconocidas en el entrenamiento a
partir del cual el mtodo deja de funcionar bien.
En los mtodos con aritmtica de intervalos hemos encontrado que en
general el mtodo 2 (Hernndez) funciona mejor que el 3 (Ishibuchi) para las 3
primeras reglas de clasificacin que hemos utilizado. Las otras 2 reglas son muy
restrictivas (pueden quedar ejemplos sin clasificar) por lo que creemos que las
conclusiones que se puedan sacar de su funcionamiento no son muy relevantes.
Para los mtodos con aritmtica de intervalos, tambin hemos encontrado 3
tipos de situaciones, una en la que ambos mtodos funcionan bien (mejor el 2),
otra en la que funciona bien el mtodo 2 y en el 3 hay un porcentaje de entradas
desconocidas en el entrenamiento a partir del cual deja de funcionar, y la ltima
en la cual ambos mtodos poseen un porcentaje de entradas desconocidas en el
entrenamiento, a partir del cual funcionan claramente peor.
Tambin hemos comparado los cuatro primeros mtodos entre s. Para ello
hemos usado el caso de 5% de entradas desconocidas en el entrenamiento, ya que
es aconsejable usar un pequeo porcentaje de entradas desconocidas, si no se
quiere que haya un deterioro de la eficiencia de la red ante entradas conocidas.
- 75 -
2.5. CONCLUSIONES
Hemos observado que el mtodo 4 funciona claramente peor que los dems.
Nosotros pensamos que se podra mejorar su eficiencia modificando la
aproximacin realizada para el clculo de las integrales.
Los mtodos 2 y 3 son de nuevo los que mejor funcionan.
Finalmente, hemos comparados los 5 mtodos para los problemas con
entradas binarias (DISPLAY1 Y DISPLAY2) obteniendo los mismos resultados.
Para el mtodo 5 hemos obtenido buenos resultados, pero presenta la desventaja
de que slo es aplicable a problemas con entradas binarias por lo que su uso es
bastante restringido.
Como conclusin final, podemos decir que el mtodo 1 da mejor eficiencia
que el mtodo 4 y que los mtodos que utilizan aritmtica de intervalos son los
que mejor resuelven la mayora de los problemas, es especial el mtodo 2.
Los resultados de nuestra investigacin en este campo fueron publicados en
4 conferencias internacionales, cuyas referencias son [10], [11], [12] y [13].
- 76 -
- 77 -
- 78 -
Captulo 3
- 79 -
3.1. INTRODUCCIN
3.1. Introduccin
A lo largo de este trabajo se pretende conseguir una arquitectura ptima
para la red neuronal Multilayer Feedforward. La arquitectura habitual de la red
neuronal Multilayer Feedforward tiene una capa de salida, una capa de entrada y
una o ms capas ocultas.
En este captulo consideramos el caso de una nica capa oculta. En captulos
posteriores, se estudiar cmo escoger el nmero de capas y el nmero de
unidades en las mismas.
En adelante nos referiremos a un vector de entrada como ejemplo o patrn
de entrenamiento y llamaremos entrada o caracterstica de entrada a cada una de
las componentes de dicho vector.
Puesto que tratamos de resolver problemas de clasificacin, el nmero de
unidades de la capa de salida se suele elegir de forma que coincida con el nmero
de clases del problema de clasificacin. Se asigna una neurona a cada clase y con
ello se supone que se consigue una mayor inmunidad al ruido en las entradas.
En cuanto a la capa de entrada de la red, el problema principal es
seleccionar la informacin que se utilizar para resolver un determinado problema
o aplicacin.
La informacin que seleccionemos ser codificada numricamente e
introducida en las neuronas de entrada a la red. De esta forma, el nmero de
neuronas de entrada vendr determinado en funcin de la informacin que
seleccionemos.
Por ejemplo, en una aplicacin de diagnstico mdico hay que seleccionar
el conjunto de sntomas y pruebas til y mnimo que es necesario para resolver el
problema: diagnstico de una enfermedad. Cada sntoma, ser codificado
numricamente y ser una entrada en la red neuronal (una entrada en una neurona
de la capa de entrada).
Normalmente en aplicaciones reales complejas se tiene una gran cantidad de
informacin que puede ser medida y utilizada como entrada de una red neuronal.
Cuanto ms complicado sea el problema ms variables y medidas sern necesarias
para resolver el problema. Sin embargo, a priori, se desconoce la importancia
relativa de una informacin para resolver un problema.
El primer paso para realizar una aplicacin en redes neuronales ser
precisamente resolver este problema, es decir, decidir qu informacin se utilizar
- 80 -
3.1. INTRODUCCIN
3.1. INTRODUCCIN
- 82 -
3.1. INTRODUCCIN
3.1. INTRODUCCIN
- 84 -
o ok
...
O1
ONs
oik
oiNs
w h1 ,1 w h j ,1
Ns
La estructura y ecuaciones de
la red neuronal usada son las
clsicas de Multilayer Feedforward,
que ya vimos en el primer captulo.
Veamos aqu un recordatorio.
w hN h ,1
w h1 ,k
w hj ,k
w h 1 ,N s
H1
......
Ok
o i1
h o1
o oN s
w hN h ,k
h oj
....
hi j =
h oN h
......
Hj
h i1
w h N h ,N s
w h j ,N s
HNh
h ij
Nh
oi k = wh jk ho j + k
w i i ,j
w iN ,j
w i 1 ,N h
i1
I1
i1
(3.2)
j =1
w i1 ,1 w i i ,1 w iN ,1
w i1 ,j
(3.1)
i =1
h iN h
wiij ai + j
...
Ii
i
......
Nh
ho j =
oo k =
1
1 + exp(-hi j )
(3.3)
w i N ,N h
w i i ,N h
ii
iN
IN
i
- 85 -
1
1 + exp(-oi k )
(3.4)
Donde ii son las entradas a las neuronas en la capa de entrada a la red, hij y
hoj son respectivamente las entradas y salidas en las neuronas de la capa oculta y
por ltimo oik y ook sern las entradas y salidas respectivamente, en las neuronas
de la capa de salida.
Todos estos mtodos estn basados en el principio de que durante la fase de
entrenamiento la red neuronal debera seleccionar la importancia de las entradas y
este resultado se debera de reflejar en la estructura final de la red, por ejemplo los
pesos conectados a las unidades de entrada.
A continuacin, vamos a ver una descripcin detallada de los mtodos ms
representativos de esta categora que hemos encontrado en la bibliografa.
Todos ellos proponen como seleccionar las caractersticas tiles, es decir,
dan una ordenacin en funcin de su importancia. Nosotros utilizaremos la
ordenacin que proporcionan los mtodos para seleccionar el subconjunto ptimo
de caractersticas. Luego, estudiaremos qu mtodo proporciona la ordenacin
ms eficiente.
Estos mtodos estn basados como hemos dicho en el anlisis de una red
entrenada Multilayer Feedforward. Algunos de ellos, definen la relevancia de una
entrada i, Si. La manera de calcular dicha relevancia puede ser muy variada. Por
ejemplo, utilizando la ecuacin (3.5) podemos calcular la relevancia Si a partir de
la relevancia sij de cada peso wij conectado a la unidad de entrada i y a la unidad
de la capa oculta j. Una entrada es considerada ms importante si su relevancia es
mayor.
Si =
Nh
sij
(3.5)
j =1
- 86 -
(3.6)
(3.7)
- 87 -
(3.8)
(3.9)
i j
Donde gi son las primeras derivadas del error E respecto de los pesos y hij
son las segundas derivadas del error que constituirn la llamada matriz hesiana H.
En este mtodo se asume que el podado de los pesos es realizado en un
mnimo de la funcin de error, por lo cual, se descartan las derivadas de primer
orden.
Adems, se asume que las perturbaciones son pequeas y los valores de las
segundas derivadas grandes, por lo cual, se desprecian trminos de tercer orden.
Tambin se supone una matriz hesiana diagonal.
Con todo esto, la expresin final que obtenemos para la relevancia de un
peso vendr dada en la ecuacin (3.10).
s k = s ij =
1
2
hkk wk2
- 88 -
(3.10)
1
2
w k2
[ H -1 ] kk
(3.11)
E
wij
(t ) wij (t )
wij (t )
wiji - wijf
(3.12)
- 89 -
MTODO MAO
Por ltimo describiremos un mtodo al que denominaremos MAO y que
est descrito en [18].
La funcin de error cuadrtico usada en el entrenamiento se define como la
suma para todos los patrones de los errores cuadrticos de cada patrn.
N
E = Ep =
p =1
N Ns
( y kL - t k )
2
(3.13)
p =1 k =1
(3.14)
Si = E p (I i )
p =1
E p
Ii +
I i
2
1 Ep
( I i ) 2
2
2 I i
(3.15)
2Ep
j =1
( y il +1 )
E p
(3.16)
y l +1 f wij
j =1
N l +1
N l +1
( f wij )2 +
N l +1
E p
y l +1 f wij2
j =1
(3.17)
= (o k - t k )
- 90 -
(3.18)
2Ep
o k 2
(3.19)
=1
h j
2Ep
h j
Ns
E p
k =1
o k (1 - o k ) wh jk =
k =1
(3.20)
k =1
2Ep
Ns
Ns
(o k - t k ) o k (1 - o k ) wh jk
(o k (1 - o k ) wh jk )2 +
Ns
k =1
j =1
E p
o
j =1
o k (1 - o k ) (1 - 2o k ) wh 2jk =
(3.21)
(o k (1 - o k ) wh jk )2 + (o k - t k ) o k (1 - o k ) (1 - 2o k ) wh 2jk
2Ep
I i
Nh
E p
j =1
Nh
2Ep
h
j =1
(3.22)
h j (1 - h j ) wi ij
(h j (1 - h j ) wi ij )2 +
Nh
E p
j =1
h j (1 - h j ) (1 - 2h j ) wi ij2
(3.23)
- 91 -
(3.24)
net k = wik xi
i =0
yk > yq
"q k
(3.25)
Entonces
"q k
i =0
"q j
(3.26)
Nh
Nh
wij
Nh
j
=
wij -
j
Nh
(3.27)
MTODO DER3
El segundo mtodo, est descrito en [13] y lo llamaremos DER3.
Esta basado en la misma idea que el mtodo anterior, es decir, definir la
relevancia en funcin del valor de la varianza de los pesos entre la capa de entrada
y la capa oculta de la red.
Sin embargo, ahora, para poder comparar las varianzas de los diferentes
pesos entre si, se normaliza respecto del valor esperado de dichos pesos.
La relevancia de una entrada i se medir por la ecuacin (3.28).
Si =
vari
E ( wij )
Nh vari
Nh
(3.28)
wij
wij ai
i
- 93 -
(3.29)
Saturacin
(entradas positivas)
0.8
f(A)
0.6
modo lineal
0.4
0.2
0
-10
Saturacin
(entradas negativas)
-5
10
wij
S sj +1
=
max w "a
j =1
aj
(3.30)
MTODO TEK
Y por ltimo en [14], tenemos un mtodo que denominaremos TEK.
Este mtodo es parecido al anterior pero mide la relacin entre las neuronas
i y j segn la ecuacin:
sij =
wij ais
(3.31)
max wkj a ks
k
wij ais
wkj aks
S sj+1 =
M
( w ) 2 E [a s ] 2
max {(w ij ) 2 E [ais ] 2 , "k } S sj+1
j =1
kj
(3.32)
E ( a ks ) =
a ks
(3.33)
p =1
- 95 -
MTODO BL1
En la referencia [9] se describe un mtodo que denominaremos a partir de
aqu como BL1.
Para definir la importancia de las entradas se mide la sensibilidad de la
salida respecto de las entradas.
Como primer paso, se define la derivada de la salida respecto de una entrada
especfica que depender de las entradas en la red y de los pesos en ella.
Si consideramos la red Multilayer Feedforward y las ecuaciones de la
misma descritas al principio de esta seccin 3.2, obtendremos:
o k
I i
( x, w) =
o k
oi k
oi k ho j
ho j hi j
hi j I i
(3.34)
Nh
= o k (1 - o k ) wh jk ho j (1 - ho j ) wiij
j =1
1
N
Ns
xS k =1 xD
o k
I i
( x , w)
(3.35)
- 96 -
o j
I i
(3.36)
( x, w)
( )
2
s ijx
Aij =
xS
o j
I ( x, w)
xS
i
N
(3.37)
"j
(3.38)
MTODO PRI
Otro mtodo que denominamos PRI, se describe en la referencia [16].
Est basado en la medida del error en la clasificacin correcta de un vector
de entrada. Se mide la probabilidad a posteriori de una clase dado un vector de
entrada x. La probabilidad de error en la clasificacin para un nodo de salida dado
un vector de entrada x puede ser calculada como:
Perror ( j, x ) = 1 - P (C j , x ) =
P (C k , x ) = o k
k j
k j
(3.39)
Ns
I k ( x, w)
xS j =1 xD
k j
- 97 -
(3.40)
"xS
(3.41)
ln ( t k - o k )
ln I i
- 98 -
(3.42)
El mtodo requiere que la red haya convergido y que los patrones estn bien
clasificados. Despus de que la red haya convergido se calculan las relevancias
para todas las clases y se define la relevancia Si, como el mximo de las
sensibilidades segn la ecuacin (3.43).
S i = max ( Bik ) "k
(3.43)
x i =
xip
(3.44)
p =1
(3.45)
1
N
E p (i)
p =1
- 99 -
(3.46)
(3.47)
+ wh j ,k (t ) = - k ho k + wh j ,k (t )
- 100 -
(3.48)
+ wii , j (t ) = - h j x j + wii , j (t )
(3.49)
t =0
eit =
Nh
t =0
j =1
h j wij
(3.50)
- 101 -
xi
wiij
whjk
Ahidj
xhidj
Aoutk
xoutk
xhid j = f ( Ahid j ) =
1
1 + exp( - Ahid j )
1
1 + exp( - Aoutk )
(3.51)
(3.52)
(3.53)
- 102 -
(3.54)
(3.55)
(3.56)
(3.57)
(3.58)
Una operacin similar se puede realizar sobre las salidas de las neuronas.
Definimos el siguiente valor:
b
Y ( a, b) = f ( x ) dx
a
(3.59)
N
j
= (0, Ahid j ) -
inc _ hid Nj
inc _ hid Cj
(3.60)
(0, Ahid Cj );
inc _ out kN
inc _ out kC
- 103 -
(3.61)
C
Ahid
j
I i ( j | p) =
xi wiij
N
Ahid N xhid j
j
si
( xi wiij Ahid j ) 0
(3.62)
C
Aout
k
I ij ( k | p ) =
I i ( j | p ) wh jk
xout kN
N
Aout
si
( I i ( j | p ) wh jk Aout k ) 0
(3.63)
si ( I i ( j | p ) wh jk Aout k ) < 0
I ij (k | p)
j
(3.64)
Nsalida
I iTotal (k | p)
k =1;k s
- 104 -
(3.65)
Fase de seleccin.
Usando una red neuronal entrenada para cada patrn, o ejemplo de
entrenamiento, se puede calcular el grado de participacin que una neurona i tiene
sobre la decisin que toma la red, ecuacin (3.65).
Para cada entrada i se puede calcular para cada patrn (N patrones de
entrenamiento) el valor Ii(p), a partir de todo el conjunto de entrenamiento y se
obtiene la importancia media para cada neurona de entrada i a partir de:
I iMedia =
1
N
I i ( p)
(3.66)
p =1
- 105 -
I ( f , s)
(3.67)
sS
- 106 -
p( ci | rk ( f )) log 2
"i = 1... M
"k = 1... N
p( rk ( f ) | ci )
p(ci ) p( rk ( f ))
(3.68)
En ella r1(f), ..., rN(f) es una particin del rango de variabilidad de los
valores de la entrada f en partes iguales. La suma se realiza sobre todos estos
intervalos y sobre todas las clases. Las entradas estn normalizadas en el rango
[0,1] por lo que la generacin de los intervalos consiste en dividir el intervalo
[0,1] en un nmero N de particiones iguales. El nmero de intervalos N de la
particin se fija habitualmente entre 16 y 32. Nosotros lo hemos tomado como 24
en nuestros experimentos.
En la ecuacin P(ci) es la probabilidad de que una observacin sea de la
categora o clase ci. P(rk(f)) es la probabilidad de que una observacin tenga la
entrada frk(f) y P(rk(fj)|ci) es la probabilidad de una observacin con fjrk(fj) y
que se clasifique en la clase ci.
Anlogamente, para el clculo de la informacin mutua I(f,s) entre dos
entradas f y s se usar la ecuacin (3.69).
En ella, P(rk(f)) es la probabilidad de que una observacin tenga la entrada
frk(f), P(rj(s)) es la probabilidad de que una observacin tenga la entrada srj(s)
- 107 -
p( rk ( f ) | r j ( s )) log 2
" j = 1... N
" k = 1... N
p( rk ( f ) | r j ( s ) )
p( r j ( s )) p( rk ( f ))
(3.69)
P( xi ) I ( xi ) = -
i =1
P( xi ) log 2 P( xi )
(3.70)
i =1
(3.71)
i =1
N (ci )
No
N ( ci )
M
(3.72)
N (ci )
i =1
- 108 -
P( ci | rk ( f j )) =
N ( rk ( f j ))
(3.73)
N (rk ( f j ), ci )
(3.74)
i =1
N ( rk ( f j ))
No
No =
N ( rk ( f j ))
(3.75)
k =1
k =1
i =1
(3.76)
I ( S ) = -
j =1
nj
n
log 2
nj
n
(3.77)
nikj
j =1
nik
I ( S ik ) = -
log 2
nikj
(3.78)
nik
Donde nikj es el nmero de ejemplos del subconjunto Sik que son de la clase j
(nmero de muestras x para las que firk(fi) y xcj) y nik es el nmero total de
elementos del subconjunto Sik.
Para una entrada fi la informacin esperada se puede calcular por la
ecuacin siguiente:
Ei =
k =1
nik
n
(3.79)
I ( S ik )
(3.80)
Gi
Ii
Ii = -
k =1
nik
n
log 2
nik
(3.81)
- 110 -
(3.82)
I ( f 2 , f 1 ) I ( f 2 , f 2 ) ... I ( f 2 , f p )
T =
............
I ( f p , f 1 ) I ( f p , f 2 ) ... I ( f p , f p )
(3.83)
d ( f 2 , C)
D( F , C ) =
......
d ( f p ,C)
(3.84)
(3.85)
H ( f i , C ) = - p( rk ( f i ) | c j ) log 2
k =1 j =1
p( rk ( f i ) | c j )
p( c j ) p( rk ( f i ))
(3.86)
- 112 -
N_hit=y; N_miss=z.
(3.87)
f i - si
mk
(3.88)
d ij =
wq ( f qi - f qj ) 2
(3.89)
q =1
- 113 -
1,
D (i , j ) =
0,
NS =
(3.90)
en otro caso
en otro caso
S (i, j );
ND =
i =1 j =i +1
D (i, j);
i =1 j =i +1
1
NS
(i, j ) d ij -
i =1 j =i +1
1
ND
(3.91)
D (i, j ) d ij
i =1 j =i +1
1
NS
i =1 j = i +1
d S (i, j ) ( f qi - f qj )
wt ( fti - ft j )
1
ND
i =1 j = i +1
t =1
d D (i, j ) ( f qi - f qj )
(3.92)
wt ( fti - ft j )
t =1
J
wq
(3.93)
- 114 -
- 115 -
- 116 -
- 117 -
Nm
y sm,i
Ysm -1
Wimt
f(.)
1
P NM
P NM
[ d s,i - y sM,i ] 2
(3.94)
s =1 i =1
W (k + 1) = W (k ) - J (W ) W =W ( k ) = W (k ) -
J (W )
W
(3.95)
W =W ( k )
- 118 -
(3.96)
(3.97)
h (0)
h (0)
(3.98)
(3.99)
h ( m ) = P( k ) T 2 J [W (k ) + m P( k )] P( k )
2
P NM
P NM
y sM,i
s =1 i =1
(d s,i - y sM,i )
2 y sM,i y sM,i
M
-
(d s,i - y s ,i )
2
m
s =1 i =1
m
P NM
2
P NM
(3.100)
Llamamos :
y sm,i
2 y sm,i
2
= f [Wi m (k + 1)] Y sm -1
= f [Wi (k + 1)]
(3.101)
Ysm -1
m -1
T Y
Pi m (k ) T Ysm -1 + [Wi m (k + 1)] s
m -1
T Y
Pi m (k ) T Y sm -1 + [Wi m (k + 1)] s +
2 m -1
Y m -1
T
T Ys
+ f [Wi m (k + 1)] Ysm -1 2 Pi m (k ) T s
+ [Wi m (k + 1)]
2
- 119 -
(3.102)
(k - 1) 2
(k ) =
(3.103)
si k rN r o k T k -1 0.2 k k -1
en otro caso
Para aplicar el nuevo algoritmo basta con utilizar las ecuaciones anteriores
en el proceso de entrenamiento de la red.
Dichas ecuaciones estn generalizadas para cualquier nmero de capas en la
red. En nuestro caso, usaremos una red con tres capas (una sola capa oculta), por
lo que basta con poner M=3 y obtener simplemente las ecuaciones para la capa
oculta y la de salida.
- 120 -
(3.104)
- 121 -
1
P
P Noutput
Nweights
j =1
(3.105)
k =1
- 122 -
3.7. METODOLOGA
3.7. Metodologa
La metodologa que emplearemos aqu es la habitual utilizada en redes
neuronales.
El objetivo final es comparar las eficiencias que proporcionan los diferentes
mtodos y dar una ordenacin de los mtodos en funcin de su eficiencia relativa.
Los pasos generales a seguir en la investigacin han sido los siguientes:
3.7. METODOLOGA
- 124 -
3.7. METODOLOGA
s
n
(3.106)
- 125 -
3.7. METODOLOGA
- 126 -
3.7. METODOLOGA
Para ello, nosotros hemos empleado una metodologa que nos permita
determinar cul ser dicho subconjunto para cada problema y para cada mtodo.
La idea es, a partir del vector de ordenacin de entradas por su importancia,
generar varios subconjuntos eliminando sucesivamente la entrada menos
importante. Si tenemos N entradas obtendremos un total de N-1 subconjuntos
candidatos a ser el subconjunto ptimo.
El primer subconjunto se obtiene quitando la entrada menos importante
(primera componente del vector). El segundo subconjunto se obtiene quitando las
dos entradas menos importantes (primera y segunda componentes del vector de
ordenacin de entradas). El resto de subconjuntos se obtiene sucesivamente
eliminando una entrada ms en cada uno de ellos.
Para escoger el subconjunto ptimo de entre todos los generados
necesitaremos medir la eficiencia que proporciona cada subconjunto (cmo de
buenas son las entradas que incluye). Para ello, de nuevo necesitaremos
entrenar una red para cada subconjunto generado y medir su capacidad de
generalizacin.
Debemos recordar que, como hemos dicho antes, la eficiencia final de un
subconjunto depender del clasificador que se vaya ha utilizar. En nuestro caso, el
clasificador de inters es Multilayer Feedforward y como ya hemos comentado
antes la eficiencia obtenida en el test (medida de la capacidad de generalizacin)
depender de la inicializacin de los pesos y de la particin de los datos realizada
en el entrenamiento.
De nuevo y por las mismas razones que antes, en lugar de entrenar una
nica red para cada subconjunto se realizaron varios entrenamientos diferentes
con distintas condiciones de inicializacin de pesos y particiones de datos,
calculando despus la media de la eficiencia con un error.
Finalmente, se ha entrenado un mnimo de diez redes (con diferente
inicializacin de pesos y particiones de datos) y se ha obtenido al final una
eficiencia media (porcentaje medio de aciertos en el test) con un error, ecuacin
(3.106). La medida de la eficiencia resulta as mucho ms significativa.
Hemos considerado que el error obtenido tenia un valor aceptable si no
sobrepasaba el 3%. Si era superior, hemos entrenado 10 redes ms, repitiendo este
proceso hasta que el valor del error no sobrepasar dicho porcentaje.
Para el entrenamiento de estas redes se ha optado por utilizar un algoritmo
diferente del estndar Backpropagation. Este algoritmo descrito en [40] y que
- 127 -
3.7. METODOLOGA
A = B
(3.107)
En los casos en que dicha hiptesis pueda ser rechazada, se puede asegurar
estadsticamente que la diferencia de valores es significativa.
El estadstico t, a calcular para dicho test es el correspondiente a la
comparacin de dos medias de poblaciones distintas y con varianzas
desconocidas. Su valor depende de las dos medias y las diferencias se hacen ms
distinguibles, conforme disminuyen los errores.
- 128 -
3.7. METODOLOGA
x1 - x 2
(3.108)
Error12 + Error22
(Error12 + Error22 )2
Error14
n1 + 1
Error24
-2
(3.109)
n2 + 1
- 129 -
3.7. METODOLOGA
En otro caso, con 58.10.7 con 5 entradas omitidas, y 552 con 7 entradas
omitidas, las capacidades de generalizacin son claramente distinguibles y es
mejor la primera, por lo que nos quedaramos con ese subconjunto.
En definitiva, si las capacidades de generalizacin son distinguibles,
escogemos el subconjunto que proporcione la mayor, y si son indistinguibles, el
subconjunto que tenga menor nmero de entradas (ms entradas omitidas).
El proceso ser partir del subconjunto de entradas formado por una entrada
omitida y compararlo con el de dos entradas omitidas. Nos quedaremos con
subconjunto que proporcione mayor eficiencia media, o en caso de que sean
indistinguibles con el que posea menor nmero de entradas (ms entradas
omitidas). Despus, compararemos el subconjunto seleccionado con otro, e iremos
repitiendo el proceso hasta haber pasado por todos, siendo el ltimo conjunto
seleccionado el que ser finalmente el subconjunto ptimo.
Al final del proceso tendremos un subconjunto ptimo de entradas para cada
mtodo y problema.
Comparacin de mtodos entre s
Finalmente, podemos comparar la eficiencia entre los distintos mtodos de
seleccin de entradas en un mismo problema, mediante la comparacin de la
eficiencia media de sus subconjuntos ptimos.
Aplicando de nuevo el estadstico test-t, vamos comparando los mtodos de
dos en dos, concluyendo en cada comparacin que ser mejor el mtodo que
proporcione mayor capacidad de generalizacin y que en caso de que no sean
distinguibles, aquel que contiene menor nmero de entradas (ms entradas
omitidas).
De esta forma, comparando los mtodos dos a dos en cada problema
podemos obtener una tabla en donde se describa si un mtodo funciona mejor,
peor o igual que otro en cada problema. Para obtener unas conclusiones ms
generales sobre la eficiencia relativa de dos mtodos, lo que se ha hecho ha sido
emplear el criterio simple de que un mtodo es mejor que otro si funciona mejor
en un mayor nmero de problemas.
Con esta metodologa, al final se puede obtener una ordenacin aproximada
de todos los mtodos de acuerdo con su eficiencia.
Este proceso es bastante laborioso, iremos obteniendo los resultados
progresivamente, es decir compararemos cada mtodo con todos los dems. En el
apndice II de la Tesis Doctoral se incluyen todos estos resultados.
- 130 -
- 131 -
1
0.048786
0.044321
2
3
4
5
6
7
0.165080 0.379562 1.355403 1.108591 0.944618 0.199835
0.102213 0.208929 0.501284 0.394386 0.324958 0.092751
- 132 -
Operacin
realizada
omito la entrada 1
omito la entrada 1 y 7
omito la entrada 1, 7 y 2
omito la entrada 1, 7, 2 y 3
omito la entrada 1, 7, 2, 3 y 6
omito la entrada 1, 7, 2, 3, 6 y 5
Subconjuntos
posibles
{7, 2, 3, 6, 5, 4}
{2, 3, 6, 5, 4}
{3, 6, 5, 4}
{6, 5, 4}
{5, 4}
{4}
Para un mismo problema, puedo tener dos subconjuntos iguales (las mismas
entradas omitidas) para mtodos distintos. En ese caso no necesito hacer dos
veces las mismas simulaciones para comprobar la eficiencia, ya que se trata de los
mismos subconjuntos (el mismo problema) aunque los mtodos sean distintos.
- 133 -
2
532
552
3
4
5
6
7
483
532
522
522 55.51.7
57.91.0 57.50.8 58.10.7 53.91.8 503
8
463
463
- 135 -
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
HE, VO
AB, BL, BN, BU, CR, D1, GL, LE, M1, M2, M3, PI, WD
SCH
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
- 136 -
- 137 -
ARNMF
49.5%
30.2%
53.8%
41.2%
57.0%
31.6%
58.8%
47.3%
ARNMF& WD N TOTAL
55.7%
663
40.6%
96
47.9%
240
33.1%
160
41.2%
221
32.4%
136
40.8%
272
53.9%
510
- 138 -
Veamos ahora cules son las ordenaciones de las entradas para el caso de
usar weight-decay. Aplicando la misma metodologa que hemos seguido en los
mtodos ARNMF sin weight-decay, obtendremos para cada problema y mtodo
de seleccin un vector con la ordenacin por importancia de las entradas
candidatas.
En el apndice II de la Tesis Doctoral, mostramos en las Tablas 26-33 para
cada problema las ordenaciones para los diferentes mtodos ARNMF & WD.
A partir de estas ordenaciones, obtenemos de nuevo los subconjuntos de
entradas y medimos la capacidad de generalizacin de los mismos.
En el apndice II de la Tesis Doctoral en las Tablas 49-56, se encuentran
para cada problema las eficiencias medias de todos los subconjuntos, para los
diferentes mtodos ARNMF & WD.
Tenemos pues las eficiencias tanto para los 17 mtodos ARNMF, como para
los 17 mtodos ARNMF & WD. En la Tabla 7 reflejamos los resultados para los 8
problemas estudiados.
Para cada fila de la Tabla 7 tenemos los resultados de un mtodo seguidos
de los resultados del mismo mtodo con el uso de weight-decay. Por ejemplo, las
dos primeras filas representan el mtodo BL1 y el mismo mtodo con weightdecay BL1&WD respectivamente.
En las columnas, hay ocho problemas diferentes: BN, BU, CR, GL, HE, PI,
VO y WD y para cada uno tenemos dos columnas. De dichas columnas la primera
(encabezada por %) representa la capacidad de generalizacin del subconjunto
ptimo (porcentaje de correcta clasificacin), y la segunda (encabezada por N) el
nmero de entradas que contiene dicho subconjunto.
Los subconjuntos ptimos para el caso de weight-decay se obtuvieron de la
misma forma que en el resto de mtodos: a partir de las Tablas 49-56, y aplicando
la prueba estadstica de hiptesis test-t para determinar cuando eran distinguibles
los resultados.
De nuevo, para analizar los resultados de qu mtodos son mejores hay que
analizar si las eficiencias son o no distinguibles, y en caso de no serlo, seleccionar
el de menor nmero de entradas.
Con los sombreados hemos tratado de mostrar las diferencias entre los
resultados de un mismo mtodo con y sin la utilizacin de weight-decay, el mejor
resultado se encuentra en una celda sombreada.
- 139 -
BU
CR
GL
MTODO
BL1
BL1 & WD
BL2
BL2 & WD
CLO
CLO & WD
PRI
PRI & WD
DEV
DEV & WD
LEE
LEE & WD
TEK
TEK & WD
SAN
SAN & WD
TEKA
TEKA & WD
TEKB
TEKB & WD
DER2
DER2 & WD
DER3
DER3 & WD
MAO
MAO & WD
UTA
UTA & WD
CIB
CIB & WD
TEKE
TEKE & WD
YOU
YOU & WD
66.61.2
68.61.0
70.60.7
68.61.0
66.41.3
68.61.0
66.61.2
68.61.0
69.40.5
68.61.0
64.50.8
71.60.7
67.91.1
68.20.9
67.40.9
68.61.0
69.41.8
72.00.9
69.00.6
68.61.0
67.20.5
69.81.1
68.90.3
74.01.4
73.70.5
70.71.5
73.11.0
72.530.12
73.70.5
74.60.5
----73.61.0
70.10.9
18
12
5
12
15
12
18
12
6
12
22
24
10
15
21
12
4
6
6
12
6
2
3
29
8
4
4
2
8
6
--5
14
69.50.2
652
67.41.6
672
69.50.2
652
69.50.2
652
69.50.2
67.41.6
60.11.3
69.50.2
69.10.3
60.11.3
69.50.2
652
69.50.2
672
67.41.6
672
67.41.6
672
63.51.7
692
69.10.3
60.60.8
69.50.2
652
69.10.3
63.51.7
63.11.2
68.30.4
-----
5
5
4
6
5
5
5
5
5
4
6
5
6
6
5
5
5
6
4
6
4
6
6
6
6
4
5
5
6
6
5
6
---
880
880
89.40.2
880
880
880
880
880
880
880
76.00.4
76.70.5
880
880
880
880
89.30.2
880
89.050.16
880
88.250.08
880
88.00.3
880
88.00.4
880
88.300.13
880
87.700.17
87.90.4
----88.30.3
880
1
1
8
1
1
1
1
1
1
1
12
3
1
1
1
1
9
1
10
1
5
1
14
1
14
2
6
1
12
12
--11
1
603
603
603
603
603
603
603
603
603
603
41.91.5
524
563
603
603
603
603
603
563
603
563
563
43.61.3
49.91.0
603
603
603
603
543
603
543
603
-----
1
1
1
1
1
1
1
1
1
1
6
10
2
1
1
1
1
1
2
1
2
2
3
3
1
1
1
1
2
1
4
1
---
- 140 -
PI
VO
WD
MTODO
BL1
BL1 & WD
BL2
BL2 & WD
CLO
CLO & WD
PRI
PRI & WD
DEV
DEV & WD
LEE
LEE & WD
TEK
TEK & WD
SAN
SAN & WD
TEKA
TEKA & WD
TEKB
TEKB & WD
DER2
DER2 & WD
DER3
DER3 & WD
MAO
MAO & WD
UTA
UTA & WD
CIB
CIB & WD
TEKE
TEKE & WD
YOU
YOU & WD
79.11.0
79.11.0
81.30.8
79.11.0
802
79.11.0
79.11.0
79.11.0
81.30.8
79.11.0
76.91.8
722
79.90.8
80.80.3
783
79.11.0
81.30.8
79.11.0
79.41.8
79.11.0
82.90.5
773
74.80.5
723
79.31.1
76.30.6
763
76.40.5
79.31.1
773
76.20.5
78.70.5
79.90.8
77.10.7
8
8
10
8
6
8
8
8
10
8
11
12
5
11
7
8
10
8
5
8
5
5
5
10
8
12
5
2
8
5
7
11
5
6
77.00.2
77.00.2
77.00.3
77.00.2
77.00.2
77.00.2
77.00.2
77.00.2
77.00.3
77.00.2
69.70.7
70.80.9
76.160.18
77.00.2
76.760.15
77.00.2
77.00.3
77.320.18
77.00.3
77.00.2
77.00.2
77.00.2
76.30.3
78.50.4
76.160.18
75.520.10
77.320.18
77.320.18
76.160.17
77.00.2
70.80.9
75.760.14
76.520.12
77.320.18
5
5
3
5
5
5
5
5
3
5
7
4
6
5
6
5
3
3
3
5
5
5
8
8
6
3
3
3
5
5
5
2
5
3
93.11.6
95.60.5
95.90.2
95.60.5
94.70.4
95.60.5
93.11.6
95.60.5
95.90.2
95.60.5
92.10.4
92.20.6
94.90.3
940
93.11.6
95.60.5
95.90.2
95.60.5
95.00.3
95.60.5
95.400.16
95.60.5
92.31.5
93.40.5
95.500.17
95.20.3
960
95.60.5
95.500.17
95.70.3
93.70.2
940
95.500.17
95.60.3
9
6
12
6
10
6
9
6
12
6
11
12
16
3
9
6
12
6
9
6
6
6
13
9
6
7
5
6
7
5
16
3
7
7
99.630.17
99.630.17
97.71.8
99.630.17
99.630.17
99.630.17
99.630.17
99.630.17
99.250.13
99.630.17
98.40.3
98.20.4
99.500.18
99.380.16
99.630.17
99.630.17
99.130.17
99.630.17
99.630.17
99.630.17
98.940.10
98.630.16
98.40.5
99.310.06
99.000.10
99.000.10
98.940.16
99.380.16
99.250.13
99.250.13
99.500.08
98.500.19
99.500.15
923
12
12
11
12
12
12
12
12
17
12
21
25
19
18
12
12
9
12
12
12
10
16
27
26
9
9
11
23
18
18
29
21
20
18
- 141 -
obtener
- 142 -
UTA
TEKA
BL2
DEV
TEKB
DER2
MAO
CLO
BL1
YOU
PRI
SAN
CIB
TEKE
TEK
DER3
LEE
Mejor
Peor
IGUAL
con WD
con WD
2
2
4
2
2
4
2
1
5
1
3
4
3
0
5
1
3
4
1
2
5
2
4
2
2
5
1
3
1
2
2
5
1
4
2
2
5
2
1
5
0
1
3
1
4
7
0
1
4
0
4
Podemos ver que para los primeros mtodos, UTA, TEKA, BL2, DEV,
TEKB, DER2 y MAO, la utilizacin de weight-decay provoca un deterioro en la
eficiencia. En los mtodos CLO, BL1 y PRI la influencia de usar weight-decay no
es apreciable. Por ltimo, en los mtodos SAN, CIB, TEKE y DER3 (los de peor
eficiencia) hay una clara mejora mediante el uso de weight-decay.
A partir de estos resultados, parece que el uso de weight-decay mejora la
eficiencia de los peores mtodos de seleccin de entradas, deteriora la eficiencia
de los mejores mtodos y no afecta al resto, los intermedios. En este sentido, su
uso disminuye las diferencias en la eficiencia entre los distintos mtodos. Se trata
de un resultado bastante curioso e interesante.
- 143 -
UTA > TEKA > BL2 > TEKA&WD >DEV > TEKB = DER2 = MAO =
=UTA&WD > YOU&WD = DEV&WD = SAN&WD > CLO = BL1&WD =
=BL2&WD = CLO&WD = PRI&WD = TEKB&WD > CIB&WD > BL1 =
=YOU> PRI = SAN > DER2&WD = TEK&WD > CIB = TEKE > TEKE&WD=
=DER3&WD = MAO&WD > TEK > LEE&WD > DER3 >LEE
- 144 -
- 145 -
- 146 -
- 147 -
sPPQ Cociente de la perturbacin del periodo del pitch suavizado, que da una
evaluacin en porcentaje de la variabilidad a largo plazo del periodo del
pitch, con un factor de suavizado de 55 periodos. Se relaciona con la
intensidad de la frecuencia de temblor (tremor, en ingls).
vFo Variacin de la frecuencia fundamental que representa la desviacin
estndar relativa de periodo a periodo, calculada de la frecuencia
fundamental. Refleja a muy largo plazo la variacin de Fo.
ShdB Shimmer en dB, da una evaluacin de la variabilidad de periodo a periodo
de la amplitud pico a pico.
Shim Porcentaje Shimmer, evala en porcentaje la variabilidad de la amplitud
de pico a pico. Representa la variabilidad periodo a periodo relativa (a
muy corto plazo) de la amplitud pico a pico.
APQ Cociente de la perturbacin de amplitud, da una evaluacin en porcentaje
de la variabilidad de la amplitud pico a pico, con un factor de suavizado
de 11 periodos.
sAPQ Cociente de la perturbacin de amplitud suavizada: evaluacin en
porcentaje de la variabilidad a largo plazo de la amplitud pico a pico,
con un factor de suavizado de 55 periodos, se relaciona con la intensidad
de la amplitud de temblor (tremor, en ingls).
vAm Variacin del pico de amplitud, representa la desviacin estndar relativa
de periodo a periodo, calculado de pico a pico de la amplitud. Refleja a
muy largo plazo las variaciones de la amplitud.
NHR Relacin de armnicos-ruido: relacin media de la energa de las
componentes de los armnicos en el rango de 1,5-4,5 kHz, a las
componentes en el rango 70-4500 H. Evaluacin general de la presencia
de ruido en la vocalizacin.
VTI ndice de turbulencia vocal: relacin media del espectro de energa de los
armnicos de alta frecuencia, al espectro de energa de armnicos en
reas de fonacin estables, mide el nivel de energa relativa de ruido de
alta frecuencia.
SPI ndice de fonacin suave: relacin media de la energa de los armnicos
de baja a alta frecuencia. Mide el tipo de espectro en la vocalizacin.
FTRI ndice de intensidad de Fo-tremor muestra (en porcentaje) la relacin
de la magnitud de frecuencia de la componente (Fo-tremor) de
modulacin de la ms intensa baja frecuencia, a la magnitud total de
frecuencia.
ATRI ndice de la intensidad de Amplitude tremor muestra (en porcentaje) la
relacin entre la amplitud de la componente (amplitude tremor) de
modulacin-amplitud de la ms intensa baja frecuencia, y la amplitud
total.
- 148 -
- 149 -
mximo y el mnimo. Esta operacin la realizamos para todas las entradas y todos
los datos y al final obtuvimos los datos normalizados en el intervalo [0,1].
A continuacin, veremos la metodologa utilizada en nuestros experimentos.
La arquitectura de la red neuronal inicial fue: 35 entradas y 2 salidas. El
nmero de unidades ocultas se determin por procedimientos de prueba y error.
Finalmente se escogieron 6 unidades ocultas.
Las redes fueron entrenadas y testeadas obteniendo un porcentaje de
correcta clasificacin del 100%. Esto quiere decir, que la red es capaz de
distinguir perfectamente entre voces patolgicas y no patolgicas.
Entrada ms importante
Mtodos
BL1
BL2
CLO
PRI
DEV
TEK
FTRI
PFR
Jitt
To
NVB
NUV
ShdB
Fftr
SEX
ATRI
RAP
vAm
PPQ
NHR
sAPQ
DSH
DVB
DUV
Tsam
APQ
STD
Shim
sPPQ
VTI
vFo
Fatr
NSH
AGE
SEG
SPI
Flo
Fo
Fhi
Jita
PER
Shim
ATRI
NUV
FTRI
NVB
APQ
Fftr
RAP
ShdB
To
sPPQ
vAm
VTI
PPQ
Jitt
Tsam
vFo
DSH
NHR
PFR
NSH
SEX
sAPQ
DVB
STD
Fatr
DUV
SPI
AGE
SEG
Flo
Fo
Fhi
Jita
PER
FTRI
NVB
To
NUV
Jitt
PFR
NHR
SEX
DVB
RAP
vAm
ShdB
sAPQ
PPQ
Shim
STD
APQ
DUV
VTI
Tsam
Fftr
ATRI
DSH
sPPQ
Fatr
NSH
vFo
AGE
SEG
SPI
Flo
Fo
Fhi
Jita
PER
FTRI
PFR
Jitt
To
NVB
NUV
ShdB
Fftr
SEX
ATRI
RAP
vAm
PPQ
NHR
sAPQ
DSH
DVB
DUV
Tsam
APQ
STD
Shim
sPPQ
VTI
vFo
Fatr
NSH
AGE
SEG
SPI
Flo
Fo
Fhi
Jita
PER
NVB
ATRI
Shim
RAP
NUV
APQ
ShdB
FTRI
DSH
VTI
Tsam
vAm
To
PPQ
NHR
SEX
sPPQ
Fftr
vFo
DUV
NSH
Jitt
STD
PFR
sAPQ
DVB
Fatr
SPI
AGE
SEG
Flo
Fo
Fhi
Jita
PER
NVB
VTI
NHR
ShdB
DVB
SEX
NSH
FTRI
RAP
PPQ
Tsam
sPPQ
NUV
DSH
Jitt
vFo
PFR
APQ
ATRI
Fatr
Fftr
STD
Shim
sAPQ
DUV
To
vAm
SPI
AGE
SEG
Flo
Fo
Jita
Fhi
PER
- 151 -
BL1
BL2
CLO
PRI
DEV
TEK
6
5
4
3
2
1
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
- 152 -
- 153 -
- 154 -
3.10. CONCLUSIONES
3.10. Conclusiones
En este captulo hemos presentado una revisin bastante completa de los
mtodos de seleccin de entradas basados en el anlisis de una red entrenada
Multilayer Feedforward (ARNMF), y de los mtodos basados en el anlisis del
conjunto de entrenamiento (ACE).
Tambin hemos propuesto una metodologa que permita comparar los
mtodos de seleccin de entradas, mediante la obtencin de los subconjuntos
ptimos de entradas. Hemos aplicado dicha metodologa a 26 mtodos de
seleccin de entradas, y 15 problemas de clasificacin diferentes.
El primer resultado que obtuvimos fue una ordenacin de los 26 mtodos de
acuerdo con su eficiencia como mtodos de seleccin de entradas.
A partir de dicha ordenacin, se puede concluir que la variabilidad de la
eficiencia de los mtodos de tipo ARNMF es superior a la de los mtodos ACE.
Adems, en general, la eficiencia de los ltimos puede ser considerada como
mediocre con respecto a los mejores mtodos del tipo ARNMF.
Sin embargo, hemos encontrado una excepcin en el mtodo basado en la
Distancia GD. Pensamos que este mtodo puede ser til y prometedor, porque
combina la caracterstica de un bajo coste computacional (que habitualmente
tienen los mtodos del tipo ACE), con la alta eficiencia de los mtodos de tipo
ARNMF. Hemos encontrado algunos problemas en los cuales este mtodo no ha
sido aplicable ya que la matriz de transinformacin fue singular, por ello,
pensamos que an se podra introducir alguna mejora en el mtodo para solventar
este problema. Esto podra ser un trabajo futuro a desarrollar.
Tambin, en este captulo, se ha estudiado el efecto de introducir un trmino
de regularizacin (weight-decay) en el entrenamiento de las redes para los
mtodos ARNMF. Segn la bibliografa se esperara una mejora de la eficiencia
en la tarea de seleccin de entradas. Hemos aplicado weight-decay en 17 mtodos,
y sobre 8 problemas y hemos comparado los resultados con los obtenidos para el
caso de no aplicar weight-decay.
Los resultados son que el uso de weight-decay mejora la eficiencia de los
peores mtodos, pero deteriora la eficiencia de los mejores. En dicho sentido,
disminuyen las diferencias entre las eficiencias de los mtodos de seleccin de
entradas. Por esta razn, no recomendamos la utilizacin de weight-decay para
esta tarea. En lugar de ello, se debera seleccionar uno de los mtodos de seleccin
de entradas ARNMF ms eficientes, y aplicarlo a una red neuronal entrenada con
Backpropagation.
- 155 -
3.10. CONCLUSIONES
- 156 -
- 157 -
[17] Sano, H., Nada, A., Iwahori, Y., Ishii, N., A method of analyzing
information represented in neural networks. Proceedings of 1993
International Joint Conference on Neural Networks, pp. 2719-2722, 1993.
[18] Mao, J., Mohiuddin, K., Jain, A.K., Parsimonious network design and
feature selection through node pruning. Proceedings of the 12th IAPR
International Conference on Pattern Recognition, vol. 2, pp. 622-624, 1994.
[19] Utans, J., Moody, J., et alt, Input variable selection for neural networks:
Application to predicting the U.S. business cycle. Proceedings of
IEEE/IAFE Computational Intelligence for Financial Engineering, pp. 118122, 1995.
[20] Lee, H., Mehrotra, K., Mohan, C. Ranka, S., Selection procedures for
redundant inputs in neural networks. Proceedings of the World Congress on
Neural Networks, vol. 1, pp. 300-303, 1993.
[21] Bowles, A.: Machine learns which features to select. Proceedings of the 5th
Australian Joint Conference on Artificial Intelligence, pp. 127-132, 1992.
[22] Younes, B., Fabrice, B., A neural network based variable selector.
Proceedings of the Artificial Neural Network in Engineering, (ANNIE95),
pp. 425-430, 1995.
[23] Battiti, R., Using mutual information for selecting features in supervised
neural net learning. IEEE Transactions on Neural Networks, vol. 5, no. 4,
pp. 537-550, 1994.
[24] Chi, Jabri, Entropy based feature evaluation and selection technique.
Proceedings of 4th Australian Conference on Neural Networks, (ACNN93),
pp. 193-196, 1993.
[25] Setiono, R., Liu, H., Improving Backpropagation learning with feature
selection. Applied Intelligence: The International Journal of Artificial
Intelligence, Neural Networks, and Complex Problem-Solving Technologies,
vol. 6, no. 2, pp. 129-139, 1996.
[26] Lorenzo, Hernndez, Mndez, Attribute selection through a measurement
based on information theory.(in Spanish). 7 Conferencia. de la Asociacin
Espaola para la Inteligencia Artificial, (CAEPIA), pp. 469-478, 1997.
[27] Kira, K., Rendell, L.A., The feature selection problem: Traditional methods
and a new algorithm. Proceedings of 10th National Conference on Artificial
Intelligence, pp. 129-134, 1992.
[28] Scherf,, A new approach to feature selection. Proceedings of the 6th
Conference on Artificial Intelligence in Medicine, (AIME97), pp. 181-184,
1997.
[29] Thawonmas, R., Abe, S., Feature reduction based on analysis of fuzzy
regions. Proceedings of the 1995 International Conference on Neural
Networks, vol. 4, pp. 2130-2133, 1995.
[30] Watzel, R., Meyer-Bse, A., Meyer-Bse, U., Hilberg, H., Scheich, H.,
Identification of irrelevant features in phoneme recognition with radial
basis classifiers. Proceedings of 1994 International Symposium on
Artificial Neural Networks. pp. 507-512, 1994.
[31] Fernndez, M., Hernndez, C., Input selection by Multilayer Feedforward
trained networks. Proceedings of the 1999 IEEE International Joint
Conference on Neural Networks. pp. 1834-1839, 1999.
- 158 -
[32] Fernndez, M., Hernndez, C., Neural networks input selection by using the
training set. Proceeding of the 1999 IEEE International Joint Conference on
Neural Networks. pp. 1189-1194, 1999.
[33] Fernndez, M., Hernndez, C., A Comparison among feature selection
methods based on trained networks. Proceedings of the 1999 IEEE Neural
Networks for Signal Processing Workshop (NNSP99), pp. 205-214, 1999.
[34] Fernndez, M., Hernndez, C., Optimal use of a trained neural network for
input selection. Proceedings of the 5th International Work Conference on
Artificial and Natural Neural Networks (IWANN99), pp. 506-515, 1999.
[35] Fernndez, M., Hernndez, C., How to select the inputs for a Multilayer
Feedforward Network by using the training set. Proceedings of the 5th
International Work Conference on Artificial and Natural Neural Networks
(IWANN99), pp. 477-486, 1999.
[36] Bos, S., Chug, E., Using weight-decay to optimize the generalization ability
of a perceptron. Proceedings of IEEE International Conference on Neural
Networks, vol. 1, pp. 241-246, 1996.
[37] Merz, C. J., Murphy, P. M., (1998). UCI repository of machine learning
databases.Disponible en:http://www.ics.uci.edu/~mlearn/MLRepository.html
[38] Montgomery, D. C.,Runger, G. C., Probabilidad y estadstica aplicadas a la
Ingeniera. McGraw-Hill, 1996.
[39] Heinke, D., Hamker, F. H., Comparing Neural Networks: a Benchmark on
Growing Neural Gas, Growing Cell Structures, and Fuzzy ARTMAP. IEEE
Transactions on Neural Networks, vol. 9, no. 6, pp. 1279-1291, November
1998.
[40] Xiao-Hu Yu, Guo-An Chen, Shi-Xin Cheng, Dynamic Learning Rate
Optimization of the Backpropagation Algorithm. IEEE Transactions on
Neural Networks, vol. 6. no. 3, pp. 669-677, 1995.
[41] Banci G., Monini S., Falaschi A., Sairo N., Vocal fold disorder evaluation
by digital speech analysis. Journal of Phonetics, vol. 14, pp. 495-499, 1986.
[42] Boyanov B., Hadjitodorov S., Teston B., Doskov D., Software system for
pathological voice analysis. LARYNX 1997, pp. 139-142, 1997.
[43] Boyanov B., Hadjitodorov S., Teston B., Doskov D., Robust hybrid
detector for pathological voice analysis. LARYNX 1997, pp. 55-58, 1997.
[44] Zhu W., Kikuchi Y., Endo Y., et al., An integrated acoustic evaluation
system of pathologic voice. Proceedings of the International Conference on
Spoken Language Processing, pp. 1983-1986, 1994.
[45] Boyanov B., Chollet G., Pathological voice analysis using cepstra, bispectra
and group delay functions. Proceedings of the International Conference on
Spoken Language Processing, pp. 1039-1042, 1992.
[46] Boyanov B., Hadjitodorov S., Ivanov T., Analysis of voiced speech by
means of bispectrum. Electronics Letters, vol. 7, no. 24, pp. 2267-2268,
1991.
[47] Kasuya H., Endo Y., Saliu S., Novel acoustic measurements of jitter and
shimmer characteristic from pathologic voice. Eurospeech 1993, pp. 19731976. Berlin 1993.
[48] Kasuya H., Ogawa Sh., Mashima K., Ebihara S., Normalized noise energy
as an acoustic measure to evaluation pathologic voice. Journal of Acoustic
Society of America, vol. 80, no. 5, pp. 1329-1334, 1986.
- 159 -
[49] Yunik M., Boyanov B., Method for evaluation of the noise-to-harmonic
component ratios in pathological and normal voices. Acustica, vol. 70, pp.
89-91, 1990.
[50] Schoentgen J., Jitter in discriminating between normal and dysphonic
speakers. Applied stochastic models and data analysis, vol. 4, pp. 127-135,
1985.
[51] Boyanov B., Hadjitodorov S., Baudoin G., Acoustical analysis of
pathological voice. Proceedings of the Slovenian German Workshop on
Speech Analysis and Recognition, 1996.
[52] Wallen E.J., Hansen J.H.L., A screening test for speech pathology
assessment using objective quality measures, Proceedings of the
International Conference on Spoken Language Processing, pp. 776-779,
1996.
[53] Callant, D.E., Kent, R.D., et al., Self-organizing map for the classification
of normal and disordered female voices. Journal of Speech, Language, and
Hearing Research, vol. 42, no. 2, pp. 355-366, 1999.
[54] Godino-Llorente, J.I., Aguilera-Navarro, S., Hernndez-Espinosa, C.,
Fernndez-Redondo, M., Gmez-Vilda, P., On the selection of meaningful
speech parameters used by a pathologic/non Pathologic voice register
classifier. 6th European Conference on Speech Communication and
Technology (EuroSpeech'99), vol. 1, pp. 563-566, 1999.
[55] Hernndez, C., Fernndez, M., Gomez, P., Godino, J.I., Aguilera, S.,
Diagnosis of Vocal and Voice Disorders by the Speech Signal.
Proceedings of 2000 International Joint Conference on Neural Networks,
(IJCNN2000), vol. 4, pp. 253-258, 2000.
[56] Fernndez, M., Hernndez, C., On the Combination of Weight-Decay and
Input Selection Methods. Proceedings of 2000 International Joint
Conference on Neural Networks, (IJCNN2000), vol. 1, pp. 191-196, 2000.
[57] Fernndez, M., Hernndez, C., Influence of Weight-Decay Training in
Input Selection Methods, European Symposium on Artificial Neural
Networks (ESANN2000), pp.135-140, Brujas (Belgica) 2000.
[58] Hernndez, C., Fernndez, M., Gomez, P., Neural Network based Input
Selection and Diagnosis of Pathologic Voices. Neural Network World
International Scientific Journal. En prensa.
[59] Hernndez, C., Fernndez, M., On the Effect of Weight-Decay in Input
Selection. Neural Network World International Scientific Journal, vol. 10,
no. 4, pp. 575-588, Praga, Julio de 2000.
[60] Fernndez, M., Hernndez, C., Analysis of Input Selection Methods for
Multilayer Feedforward. Neural Network World International Scientific
Journal, vol. 10, no. 3, pp. 389-406, Praga, Julio de 2000.
- 160 -
wij w nl
a i
wij
E p
a i w nl
= z j n
z l
a i
=zj
ai
+ z j zl
n
a i
E p
w nl
= zj
( n z l ) =
ai
(3.110)
= z j n f (a l ) g li + z j z l bni
Donde:
n =
g li =
bni =
E p
a n
a l
a i
n
a i
r z r an = r wrn f (a n )
r
g ii = 1;
g li = 0;
f (a n )
a i
(3.111)
E p a r
=
r a n
E p
a m
E p z m
E p
= f ( a m )
z m a n
z m
E
f (a m ) p
ai
z m
(3.112)
E
2 E p
= f ( a m ) p + ( f ( a m ) )2
g mi = H m g mi
z m
z m2
- 161 -
Ep =
E p
(zm - tm )2 ;
z m
2Ep
= (zm - tm );
z m2
(3.113)
= 1;
(3.114)
H m = f (a m )
E p
z m
+ ( f (a m ) ) 2
(3.115)
2Ep
z m2
bl 'l =
s l '
a l
(3.116)
- 162 -
Donde:
a l
=
E p
m a m
wml ' am a
m
E p
l a m
(3.117)
La derivada resulta:
2Ep
wlk wl 'k '
m
m
(3.118)
- 163 -
(3.119)
Captulo 4
- 165 -
Para redes neuronales de gran tamao en las que tenemos un gran nmero
de parmetros (uniones entre las neuronas) que determinar, el aprendizaje es ms
rpido y los mnimos locales son ms fciles de evitar. En particular, en la
referencia [1] se presenta un estudio terico en el cual se prob que cuando el
nmero de unidades ocultas iguala el nmero de ejemplos de entrenamiento
menos uno, se garantiza que la superficie de error de Backpropagation no tiene
mnimos locales. Tambin se observa para redes grandes, que la complejidad de
los contornos de decisin de la red, aumentan con el tamao de la misma y as
esta poseer un cierto grado de tolerancia a fallos.
Por otro lado, se ha demostrado tanto terica, como experimentalmente que
las redes con pocos parmetros, poseen mejor capacidad de generalizacin, lo cual
es una caracterstica fundamental en este campo de Redes Neuronales. Otra
ventaja es que el conocimiento codificado en una red pequea, es ms fcil de
interpretar y ello facilitar la extraccin de reglas simples que describan el
comportamiento de la red.
En general, una red neuronal demasiado pequea no podr aprender el
problema bien, y una red neuronal demasiado grande tendr como consecuencia el
fenmeno de sobremodelado (overfitting) y poseer una mala capacidad de
generalizacin.
Esto ltimo, se puede entender fcilmente mediante una analoga al
problema de aproximacin de curvas mediante polinomios. Consideremos unos
datos generados a partir de una funcin suave en la que se introduce ruido.
Normalmente, con un polinomio con pocos coeficientes, ser imposible capturar
la funcin a partir de los datos, mientras que con un polinomio con demasiados
coeficientes se aproximar tanto la funcin como el ruido, tendremos una pobre
representacin de la funcin. Para un nmero ptimo de coeficientes, el polinomio
nos dar la mejor representacin de la funcin y las mejores predicciones para
nuevos datos. Algo similar se puede considerar que ocurre con el nmero de
unidades ocultas en la red Multilayer Feedforward.
En la prctica, en la mayora de las ocasiones, la seleccin del nmero
correcto de unidades ocultas se realiza mediante un proceso de prueba y error. Se
prueban varias estructuras con diferente nmero de neuronas ocultas y se
selecciona la ms idnea desde el punto de vista de la capacidad de
generalizacin. Es decir, se busca la red que ofrece mejor eficiencia, medida sta
en el punto de convergencia de la red, el cual se obtiene utilizando tcnicas de
cros-validacin.
Este procedimiento presenta el serio inconveniente de requerir una gran
cantidad de tiempo, puesto que se deben de entrenar varias redes neuronales para
- 166 -
Podan neuronas
De podado
Podan
despus del entrenamientoy reentrenan
Incrementales
- 167 -
- 168 -
Generar la red
con un numero
pequeo de unidades
ocultas.
Converge?
SI
SI
Converge?
NO
NO
NO
SI
SI
SI
NO
ECM decrece en
ms de un 1%?
ECM decrece en
ms de un 1%?
SI
NO
NO
FIN
- 170 -
- 171 -
EMPEZAR
Seleccionar punto de
convergencia mediante
cros-validacin y guardar
pesos a disco.
Seleccionar una
unidad oculta a
eliminar.
Eliminar la neurona
seleccionada.
Cada 100 iteraciones
SI
Ha decrementado
el ECM en ms
de un 5%?
NO
Aadir una unidad
oculta.
Ha decrecido ECM
ms de un 5%?
NO
SI
Ha decrecido el ECM
de cros-validacin ms
de un 5%?
Ha aumentado el ECM
de cros-validacin al quitar
la neurona?
NO
veces= veces + 1.
Es veces = 3?
SI
NO
SI
Recuperar los pesos
anteriores guardados
en disco.
NO
SI
Seleccionar el punto de
convergencia y numero
de unidades ocultas
mediante cros-validacin
FIN
- 173 -
- 174 -
(4.1)
ho i = ho i (n) - ho i (n - 1)
- 175 -
oi
ho j
(4.2)
Aij =
(S ij )2
(4.3)
p =1
- 176 -
S i = max{Aij }
(4.4)
hoi2 = ( f (hii )) 2
i
hii =
wiij xi ;
f (v ) =
(4.5)
1
1 + e -v
= 2 ho j ho j (1 - ho j ) xi
(4.6)
- 177 -
hoi2
wiij
-b
E
wiij
(4.7)
1
P
hoi
(4.8)
p =1
(whij hoi )2
p
(4.9)
- 178 -
Con este factor se trata de tener en cuenta el efecto que una neurona oculta
tiene sobre las salidas, por ello se multiplica la salida de la neurona oculta por el
peso entre esa neurona y la salida.
MTODO 4 (Hagiwara Consuming energy)
De nuevo en la referencia [13] se propone otro mtodo que mide el llamado
factor Energa Consumida (Consuming energy, en ingls) que servira para
elegir la neurona a podar.
El factor de energa consumida Ej de la j-sima neurona de la capa oculta
vendr dado por la ecuacin:
Ej =
Ninput
Nsalida
whkj o k ho j +
wi ji ho j xi
p =1 k =1
i =1
P
(4.10)
Nsalida
Ninput
k =1
i =1
(whkj )2 + (wi ji )2
- 179 -
(4.11)
Nsalida
(e j )2 = wh jk k
p =1
p =1
k =1
(4.12)
de
- 180 -
MTODO 8 (Kamimura)
En las referencias [15] y [16], Kamimura, describe un mtodo basado en la
minimizacin de la entropa de las neuronas ocultas para extraer una estructura
ms simple de la red.
Para ello propone modificar el algoritmo de aprendizaje, para disminuir
simultneamente la entropa de las neuronas ocultas y la funcin de error de
Backpropagation. Disminuyendo la entropa lo que se consigue es que estn
activadas y funcionando el menor nmero posible de neuronas ocultas.
En la referencia, se define la funcin entropa para el conjunto de neuronas
ocultas de la siguiente forma:
H = -
pi log( pi )
(4.13)
i =1
hoi
(4.14)
ho j
j =1
H
wiij
- 181 -
E
wiij
(4.15)
hoi = f (hii ) = f
wiij x j
j =1
(4.16)
=-
( p i log( p i ))
i =1
wiij
=-
( p )
i =1
wii
log( pi ) + pi
ij
(log( p i ))
wiij
(4.17)
Operando se obtiene:
H
wiij
=-
i =1
wi i
ij
(log p i + 1)
(4.18)
pi
pi hoi hii
=
=
wiij hoi hii wiij
ho j - hoi
j =1
ho j
(4.19)
f (hii ) x j
j =1
= i x j
(4.20)
ho j - hoi
j =1
i = (log p i + 1)
f ( hii )
M
ho j
j =1
- 182 -
(4.21)
1
P
hoi
(4.22)
p =1
hi j =
wiij xi +
(4.23)
i =1
Para hallar la salida de las unidades ocultas bastara con aplicar la funcin
de transferencia (sigmoide) sobre la entrada a la neurona.
Si se le aade ruido n a la ecuacin (4.23) nos quedar:
- 183 -
Ninput
hi j =
wiij xi + n +
(4.24)
i =1
Nsalida
wh jk
(4.25)
k =1
- 184 -
E
whij
+ whij (t - 1) + S + F
(4.26)
whik
signo(whij ) - whij +
m -1
k =1
(4.27)
- whij +
whkj
n - 1 whij
k =1
E 2
(4.28)
- 185 -
1
P
hok
p =1
(4.29)
j
Nsalida
S kj
(4.30)
k =1
Nsalida
Nhidden
k =1
m =1;m i
(4.31)
I (o k , ho i ) = 2
H (ho i ) + H (o k )
(4.32)
R(ho i , ho m ) = 2
(
)
(
)
+
H
ho
H
ho
i
m
pk ,g log 2 ( pk ,g )
(4.34)
g =0
H (ho m ) = -
pm, t log 2 ( p m, t )
t =0
H (hoi , ho k ) = - p g , t log 2 ( p g , t )
(4.35)
g =0 t =0
- 187 -
4.3. METODOLOGA
4.3. Metodologa
En primer lugar hemos realizado una seleccin de los problemas sobre los
que realizar nuestros experimentos. Hemos escogido un total de 11 problemas o
bases de datos del repositorio UCI con datos normalizados en el intervalo [0,1].
Hemos abreviado sus nombres como sigue:
Balance Scale Weight & Distance (BALANCE), Cylinder Bands (BANDS),
BUPA Liver Disorders (BUPA), Credit Approval (CREDITO), Display1
(DISPLAY1), Glass Identification (GLASS), Heart Disease (HEART), Image
Segmentation (IMAGEN), The Monks Problems (MOK1, MOK2), 1984 U.S.
Congressional Voting Records (VOTING).
Como vimos al principio de este captulo, nuestros experimentos se basarn
en el algoritmo de Hirose modificado dado en la figura 2.
El algoritmo consta de una fase constructiva, en la cual se aadan neuronas
a la red mediante el mtodo de HIROSE o el de KHORASANI y despus una fase
de podado, en la cual se utiliza alguno de los 13 mtodos descritos para eliminar
neuronas.
Para la primera fase, para cada problema, partiremos de una red con una
sola neurona en la capa oculta y se entrenar dicha red con Backpropagation.
El primer paso que dimos, fue determinar los parmetros que se utilizan en
el algoritmo, es decir, el valor de la variable veces y del porcentaje de
decremento en ECM y ECM_cros.
Para ello, realizamos varias pruebas, escogiendo finalmente los valores de
veces=3 y un valor en el decremento para los errores ECM y de cros-validacin
del 5%.
Despus de determinados los parmetros, procedimos a la aplicacin de la
primera fase, la fase constructiva.
Realizamos dos experimentos diferentes, uno aplicando el procedimiento de
HIROSE y otro aplicando el de KHORASANI. El procedimiento seguido fue el
mismo para ambos, lo nico que cambiaba era la manera de inicializar los pesos
de la nueva neurona aadida. Para el mtodo de HIROSE, los pesos de las nuevas
neuronas ocultas se inicializan aleatoriamente dentro de un intervalo centrado en
cero, y para el mtodo de KHORASANI, se duplica el valor de los pesos de una
neurona ya existente (aquella con mayor valor del ndice HFR).
- 188 -
4.3. METODOLOGA
Como hemos dicho antes, se parte de una red con una sola neurona oculta y
se aplica la fase constructiva del algoritmo. Cada 100 pocas de entrenamiento se
comprob si el error ECM haba disminuido ms de un 5%, en ese caso se
continu el entrenamiento 100 pocas ms y se volvi a comprobar. Cuando el
ECM no disminua ms de un 5% se intentaba aadir una neurona ms. Se
comprobaba s el ECM_cros haba decrecido ms de un 5%, y en ese caso se
continuaba entrenando con una neurona ms. Cuando el ECM_cros decreca
menos de un 5%, an se daban hasta tres oportunidades nuevas de aadir neuronas
y despus se daba por concluido el aprendizaje.
Finalizada la fase constructiva, se determina mediante cros-validacin el
punto de convergencia y el nmero de neuronas ocultas final de la red (es decir
los valores para los cuales ECM_cros es mnimo).
Como siempre, el resultado final del entrenamiento de la red, va a depender
de las condiciones iniciales, por ello, en nuestros experimentos para cada
problema, hemos repetido la fase constructiva 30 veces con diferentes particiones
de los datos e inicializacin de los pesos. As, hemos obtenido 30 resultados
diferentes para cada problema.
Para esos 30 resultados anotaremos:
-
- 189 -
4.3. METODOLOGA
Esto se repite para cada mtodo y tanto en el caso de los resultados del
mtodo constructivo de HIROSE, como para los de KHORASANI.
Tendremos para las 30 redes obtenidas aplicando el procedimiento de
HIROSE, 30 redes finales para cada uno de los 13 mtodos de podado.
Tambin para las 30 redes obtenidas en la fase constructiva aplicando
KHORASANI, tendremos 30 redes finales para cada uno de los 13 mtodos de
podado.
Para el mtodo 2 no se da en la referencia [12] el valor adecuado para el
parmetro . Nosotros hemos probado con 5 valores diferentes que hemos
denominado: a=0.01, b=0.001, c=0.0001, d=0.00001, e=0.000001. En los
resultados experimentales tendremos 5 diferentes resultados segn el valor de
escogido.
En el mtodo 8 el parmetro se ha escogido con un valor pequeo, tal
como especifica la referencia [15] y [16]. Hemos utilizado 5 valores diferentes
que hemos denominado: a=0.01, b=0.001, c=0.0001, d=0.00001, e=0.000001.
De nuevo en los resultados experimentales tendremos 5 diferentes resultados
segn el valor de escogido.
En el mtodo 11, para los parmetros y hemos escogido los siguientes
valores (, ) que denominamos: a=(0.0001,0.1), b=(0.0001,0.5), c=(0.0001,1),
d=(0.0001,3), e=(0.0008,0.1), f=(0.0008,0.5), g=(0.0008,1), h=(0.0008,3). As
obtendremos ocho resultados diferentes para la aplicacin de este mtodo.
Como proceso final faltara comparar cul de los mtodos es ms eficiente.
Realmente lo que hay que determinar es que procedimiento es mejor en la fase
constructiva y para ese, ver que mtodo de podado funciona mejor.
Los criterios utilizados para decidir cul es mejor son los de siempre: la red
que suministre mejor capacidad de generalizacin y sea la ms pequea. El
criterio ms restrictivo es la capacidad de generalizacin y solo en el caso de que
- 190 -
4.3. METODOLOGA
- 191 -
- 192 -
1.87
1.23
2.57
1.73
8.37
7.5
1.1
9.53
4.33
3.2
1.07
Desviacin
Estndar en
Nhidden
1.11
0.68
1.52
1.41
1.73
3.47
0.55
3.55
1.27
1.45
0.25
Nhidden
Mnimo
Nhidden
Mximo
Porcentaje
1
1
1
1
5
4
1
4
3
1
1
4
4
6
6
12
22
4
18
6
6
2
87.60.6
69.80.9
67.01.2
85.50.5
72.30.3
92.50.9
82.00.8
94.20.3
95.30.9
75.00.8
95.30.4
2.63
1
1.73
1.43
3.5
4.77
1.03
5.5
3.23
2.3
1.23
Desviacin
Estndar en
Nhidden
1.81
0
1.14
1.04
0.78
1.59
0.18
0.63
1.50
1.34
0.77
Nhidden
Mnimo
Nhidden
Mximo
Porcentaje
1
1
1
1
2
1
1
4
1
1
1
6
1
4
4
4
7
2
7
7
4
5
87.60.7
70.20.9
65.41.2
85.30.5
33.90.5
74.51.4
82.10.8
54.80.7
76.30.7
66.20.5
95.30.4
- 193 -
Nhidden
6
13
8
9
15
6
6
13
5
14
13
Porcentaje
589
68.21.3
68.31.6
86.60.6
71.91.3
78.91.1
80.60.9
91.00.5
73.61.1
73.61.1
95.90.6
- 194 -
- 195 -
- 197 -
4.5. CONCLUSIONES
4.5. Conclusiones
A lo largo de este captulo hemos estudiado los diferentes mtodos
existentes en la bibliografa para seleccionar el nmero de neuronas ocultas
necesario para la red Multilayer Feedforward. El procedimiento que proponemos
es la utilizacin de un algoritmo similar al de Hirose en el cual existe una fase
constructiva inicial, durante la cual se aaden neuronas, y una fase de podado
posterior, en la que se elimine el exceso de neuronas aadidas en la primera fase.
La diferencia con el algoritmo original de Hirose es la condicin de parada del
algoritmo: nosotros utilizamos como criterio de convergencia de las redes crosvalidacin.
Se ha aplicado dicho algoritmo a los mtodos constructivos de HIROSE y
KHORASANI, llegando a la conclusin de que la capacidad de generalizacin
obtenida en la fase constructiva para el algoritmo de HIROSE es mejor que la de
KHORASANI, obteniendo al mismo tiempo un nmero de neuronas adecuado
para resolver el problema.
Tambin hemos estudiado la eficiencia de los procedimientos de prueba y
error frente al mtodo de HIROSE, concluyendo igualmente que la capacidad de
generalizacin es superior para HIROSE.
Por ltimo, utilizando como mtodo constructivo HIROSE, durante la fase
de podado se observa que la capacidad de generalizacin obtenida es similar a la
de la fase constructiva, con lo cual la reduccin de neuronas no repercute en la
mejora de la capacidad de generalizacin, sin embargo si que simplifica la
estructura de las redes.
Si se comparan los nmeros medios de unidades ocultas se puede concluir
que el mejor mtodo de podado es el denominado Mtodo 9 cuyos autores son
Kurita y otros, en combinacin con el mtodo constructivo de HIROSE.
- 198 -
- 199 -
[18] Lim, S.F., Ho, S.B., Dynamic creation of hidden units with selective
pruning in Backpropagation. World Congress on Neural Networks, vol. 3,
pp. 492-497, 1994.
[19] Yasui, S., Convergence suppression and divergence facilitation: Minimum
and joint use of hidden units by multiple outputs. Neural Networks, vol. 10,
no. 2, pp. 353-367, 1997.
[20] Bartlett, E. B., A dynamic node architecture scheme for layered neural
networks. Journal of Artificial Neural Networks, vol. 1, no. 2, pp. 229-245,
1994.
[21] Bartlett, E. B., Dynamic node architecture learning: An information
theoretic approach. Neural Networks, vol. 7, no. 1, pp. 129-140, 1994.
[22] Matsunaga, Y., Nakade, Y, Yamakawa, O., Murase, K., A Backpropagation
algorithm with automatic reduction of association units in Multilayered
Neural Network. Proceedings of the International Joint Conference on
Neural Networks, pp. 783-788, 1991.
[23] Andersen, T., Martinez, T., Cross Validation and MLP Architecture
Selection. International Joint Conference on Neural Networks (IJCNN99).
1999.
- 200 -
Mtodo 1
Mtodo 2a
Mtodo 2b
Mtodo 2c
Mtodo 2d
Mtodo 2e
Mtodo 3
Mtodo 4
Mtodo 5
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 8c
Mtodo 8d
Mtodo 8e
Mtodo 9
Mtodo 10
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 12
Mtodo 13
BALANCE
Nhidden POR
1.3 (0.59) 87.90.6
1.7 (0.92) 87.60.6
1.43 (0.86) 87.60.6
1.33 (0.55) 87.70.6
1.3 (0.65) 87.70.6
1.3 (0.65) 87.70.6
1.3 (0.59) 87.90.6
1.23 (0.50) 87.80.6
1.3 (0.59) 87.90.6
1.6 (0.77) 88.20.7
1.3 (0.59) 87.90.6
1.53 (0.90) 87.60.6
1.53 (0.90) 87.60.6
1.27 (0.58) 87.70.6
1.23 (0.57) 87.60.6
1.23 (0.57) 87.60.6
1.2 (0.48) 87.80.7
1.3 (0.59) 87.90.6
1.83 (1.05) 87.70.6
1.8 (1.12) 87.70.6
1.7 (1.05) 87.70.6
1.73 (1.0) 87.70.6
1.87 (1.1) 87.60.6
1.87 (1.1) 87.60.6
1.87 (1.1) 87.60.6
1.83 (1.1) 87.60.6
1.6 (0.77) 88.20.7
1.3 (0.59) 87.90.6
BANDS
Nhidden POR
1.2 (0.55) 69.80.9
1.23 (0.67) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.55) 69.80.9
1.17 (0.46) 69.80.9
1.2 (0.55) 69.80.9
1.23 (0.67) 69.80.9
1.2 (0.55) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.61) 69.80.9
1.2 (0.61) 69.80.9
1.17 (0.46) 69.80.9
1.2 (0.55) 69.80.9
1.17 (0.46) 69.80.9
1.2 (0.55) 69.90.9
1.2 (0.55) 69.90.9
1.23 (0.68) 69.80.9
1.13 (0.43) 69.60.9
1.23 (0.68) 69.80.9
1.23 (0.68) 69.80.9
1.23 (0.68) 69.80.9
1.23 (0.67) 69.80.9
1.17 (0.46) 69.80.9
- 201 -
BUPA
Nhidden POR
1.57 (0.86) 67.01.1
2.26 (1.39) 66.91.2
2.07 (1.20) 67.31.2
1.57 (0.77) 67.01.2
1.5 (0.78) 67.01.1
1.5 (0.78) 67.01.1
1.57 (0.86) 67.01.1
1.63 (0.93) 67.01.1
1.57 (0.86) 67.01.1
2.5 (1.48) 66.81.1
1.57 (0.86) 67.11.1
1.83 (1.05) 67.11.2
1.4 (0.77) 67.11.1
1.53 (0.78) 67.11.1
1.5 (0.78) 67.01.1
1.5 (0.78) 67.01.1
1.87 (1.01) 67.11.1
1.57 (0.86) 67.01.1
2.23 (1.38) 66.91.1
2.37 (1.45) 66.81.2
2.33 (1.45) 66.51.2
2.43 (1.48) 65.51.1
2.27 (1.41) 66.31.1
2.37 (1.50) 66.31.2
2.4 (1.50) 66.71.2
2.37 (1.47) 66.21.1
2 (1.02) 67.21.2
1.57 (0.86) 67.01.1
CREDITO
Nhidden POR
1.6 (1.22) 85.50.5
1.63 (1.27) 85.60.5
1.53 (1.11) 85.60.5
1.6 (1.16) 85.60.5
1.6 (1.16) 85.50.5
1.6 (1.16) 85.50.5
1.6 (1.22) 85.50.5
1.6(1.22) 85.50.5
1.6 (1.22) 85.50.5
1.7 (1.37) 85.50.5
1.6 (1.22) 85.50.5
1.6 (1.24) 85.50.5
1.57 (1.14) 85.50.5
1.6 (1.16) 85.50.5
1.6 (1.16) 85.50.5
1.6 (1.16) 85.50.5
1.5 (1.01) 85.50.5
1.6 (1.22) 85.50.5
1.7 (1.37) 85.50.5
1.7 (1.37) 85.50.5
1.63 (1.30) 85.60.5
1.6 (1.16) 85.60.5
1.73 (1.41) 85.50.5
1.73 (1.41) 85.50.5
1.7 (1.37) 85.60.5
1.67 (1.32) 85.50.5
1.67 (1.32) 85.50.5
1.6 (1.22) 85.50.5
Mtodo 1
Mtodo 2a
Mtodo 2b
Mtodo 2c
Mtodo 2d
Mtodo 2e
Mtodo 3
Mtodo 4
Mtodo 5
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 8c
Mtodo 8d
Mtodo 8e
Mtodo 9
Mtodo 10
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 12
Mtodo 13
DISPLAY1
Nhidden POR
7.53 (1.59) 72.40.3
8.23 (1.73) 72.30.3
7.8 (1.74) 72.20.3
7.33 (1.56) 72.40.3
7.53 (1.63) 72.30.3
7.53 (1.63) 72.30.3
7.5 (1.50) 72.30.3
7.47 (1.55) 72.30.3
7.53 (1.53) 72.30.3
8.37 (1.73) 72.30.3
7.57 (1.55) 72.30.3
8.13 (1.70) 72.30.3
7.47 (1.63) 72.30.3
7.4 (1.57) 72.30.3
7.47 (1.57) 72.40.3
7.57 (1.61) 72.40.3
7.17 (1.49) 72.30.3
7.5 (1.50) 72.30.3
8.37 (1.73) 72.30.3
8.37 (1.73) 72.30.3
8.37 (1.73) 72.30.3
8.37 (1.73) 72.30.3
8.37 (1.73) 72.30.3
8.37 (1.73) 72.30.3
8.37 (1.73) 72.30.3
8.37 (1.73) 72.30.3
7.73 (1.74) 72.30.3
7.6 (1.63) 72.30.3
GLASS
Nhidden POR
5.13 (1.70) 92.61.1
7.23 (3.61) 92.10.9
7.07 (3.63) 92.50.9
7 (3.66) 92.11.0
7.03 (3.64) 921.0
7.03 (3.64) 921.0
5.2 (1.61) 92.91.0
5.07 (1.60) 92.31.0
5.07 (1.60) 92.61.1
7.4 (3.53) 92.70.9
5.2 (1.58) 92.51.1
7.27 (3.59) 92.20.9
6.8 (3.74) 92.11.0
7 (3.66) 92.30.9
7.03 (3.64) 921.0
7.03 (3.64) 921.0
5.97 (3.41) 92.91.0
5.1 (1.67) 92.61.1
7.23 (3.60) 92.50.9
7.1 (3.49) 92.30.9
7.1 (3.45) 92.50.9
7.2 (3.42) 92.50.9
7.43 (3.5) 92.31.0
7.47 (3.47) 92.50.9
7.37 (3.40) 92.31.0
7.47 (3.47) 92.50.9
7.43 (3.53) 92.60.9
6.57 (3.63) 92.30.9
- 202 -
HEART
Nhidden POR
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.07 (0.37) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.07 (0.37) 82.10.8
1.07 (0.37) 82.10.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
1.1 (0.55) 82.00.8
IMAGEN
Nhidden POR
8.23 (3.53) 94.40.3
9.53 (3.55) 94.20.3
8.83 (3.67) 94.30.3
8.57 (3.80) 94.30.3
8.43 (3.82) 94.40.3
8.43 (3.82) 94.40.3
8.37 (3.43) 94.30.3
8.2 (3.46) 94.30.3
8.27 (3.49) 94.30.3
9.5 (3.54) 94.20.3
8.23 (3.51) 94.30.3
9.37 (3.62) 94.20.3
8.83 (3.85) 94.20.3
8.2 (3.81) 94.50.3
8.37 (3.76) 94.50.3
8.37 (3.77) 94.50.3
8 (3.24) 94.70.3
8.3 (3.47) 94.30.3
9.47 (3.53) 94.20.3
9.53 (3.55) 94.20.3
9.53 (3.55) 94.20.3
9.53 (3.55) 94.20.3
9.53 (3.55) 94.20.3
9.53 (3.55) 94.20.3
9.53 (3.55) 94.20.3
9.53 (3.55) 94.20.3
9.43 (3.53) 94.30.4
8.4 (3.38) 94.30.3
Mtodo 1
Mtodo 2a
Mtodo 2b
Mtodo 2c
Mtodo 2d
Mtodo 2e
Mtodo 3
Mtodo 4
Mtodo 5
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 8c
Mtodo 8d
Mtodo 8e
Mtodo 9
Mtodo 10
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 12
Mtodo 13
MOK1
Nhidden POR
3.47 (0.97) 95.30.9
4.27 (1.22) 95.70.9
4.13 (1.31) 94.81.1
4.27 (1.28) 95.30.9
4.23 (1.25) 95.30.9
4.23 (1.25) 95.30.9
3.43 (0.89) 95.30.9
3.3 (0.65) 95.30.9
3.5 (1.04) 95.30.9
4.23 (1.28) 95.30.9
3.5 (1.04) 95.30.9
4.33 (1.27) 95.30.9
4.13 (1.31) 95.30.9
4.2 (1.24) 95.30.9
4.23 (1.25) 95.30.9
4.23 (1.25) 95.30.9
3.3 (0.70) 95.30.9
3.46 (0.97) 95.30.9
4.23 (1.22) 95.30.9
4.2 (1.16) 95.30.9
4.3 (1.24) 95.30.9
4.33 (1.27) 95.30.9
4.23 (1.17) 95.30.9
4.2 (1.19) 95.30.9
4.3 (1.24) 95.30.9
4.33 (1.27) 95.30.9
3.7 (0.99) 95.30.9
3.53 (0.78) 95.30.9
MOK2
Nhidden POR
2.63 (1.22) 74.70.9
2.93 (1.34) 74.50.8
2.87 (1.22) 75.40.8
2.77 (1.14) 75.00.8
2.83 (1.23) 75.30.8
2.83 (1.23) 75.30.8
2.67 (1.18) 75.10.9
2.67 (1.21) 74.70.9
2.67 (1.21) 74.60.9
2.93 (1.17) 76.10.8
2.67 (1.21) 74.60.9
2.83 (1.21) 75.20.8
2.8 (1.16) 75.20.8
2.73 (1.11) 75.30.8
2.83 (1.23) 75.30.8
2.83 (1.23) 75.30.8
2.57 (0.97) 74.90.8
2.63 (1.22) 74.70.9
2.93 (1.28) 75.30.8
3.07 (1.39) 74.60.9
3.17 (1.49) 74.60.9
3.17 (1.49) 74.60.9
3.1 (1.34) 75.20.8
3.1 (1.42) 74.80.9
3.17 (1.49) 74.60.9
3.17 (1.49) 74.60.9
2.77 (1.30) 74.70.8
2.73 (1.23) 75.10.8
- 203 -
VOTING
Nhidden POR
1 (0)
95.30.4
1.03 (0.18) 95.20.4
1.03 (0.18) 95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1.07 (0.25) 95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1 (0)
95.30.4
1.03 (0.18) 95.30.4
1.03 (0.18) 95.30.4
1.07 (0.25) 95.30.4
1.07 (0.25) 95.30.4
1.07 (0.25) 95.30.4
1.03 (0.18) 95.30.4
1.03 (0.18) 95.30.4
1 (0)
95.30.4
Mtodo 1
Mtodo 2a
Mtodo 2b
Mtodo 2c
Mtodo 2d
Mtodo 2e
Mtodo 3
Mtodo 4
Mtodo 5
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 8c
Mtodo 8d
Mtodo 8e
Mtodo 9
Mtodo 10
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 12
Mtodo 13
BALANCE
Nhidden POR
2.43 (1.72) 87.60.6
2.5 (1.78) 87.60.6
2.37 (1.67) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
1.87 (1.07) 88.20.6
2.43 (1.72) 87.60.6
2.57 (1.81) 87.60.6
2.57 (1.81) 87.60.6
2.53 (1.79) 87.70.6
2.5 (1.74) 87.60.6
2.63 (1.81) 87.60.6
2.63 (1.81) 87.60.6
2.63 (1.81) 87.60.6
2.5 (1.74) 87.60.6
2.43 (1.72) 87.60.6
2.43 (1.72) 87.60.6
BUPA
Nhidden POR
1.43 (0.82) 65.81.1
1.53 (0.97) 65.41.2
1.43 (0.82) 65.41.2
1.47 (0.90) 65.81.1
1.43 (0.82) 65.81.1
1.43 (0.82) 65.81.1
1.43 (0.82) 65.81.1
1.43 (0.82) 65.81.1
1.43 (0.82) 65.81.1
1.43 (0.82) 65.81.1
1.43 (0.82) 65.81.1
1.53 (1.01) 66.01.1
1.4 (0.77) 65.91.1
1.4 (0.77) 65.81.1
1.43 (0.82) 65.81.1
1.43 (0.82) 85.81.1
1.4 (0.86) 65.81.2
1.43 (0.82) 65.81.1
1.5 (0.90) 65.51.2
1.63 (1.07) 65.51.2
1.63 (1.07) 65.11.2
1.7 (1.09) 65.51.2
1.67 (1.09) 65.51.2
1.7 (1.09) 65.51.2
1.7 (1.09) 65.51.2
1.63 (1.07) 65.51.2
1.43 (0.82) 65.81.1
1.43 (0.82) 65.81.1
- 204 -
CREDITO
Nhidden POR
1.33 (0.84) 85.30.5
1.23 (0.68) 85.40.6
1.37 (0.89) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.80) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
1.3 (0.70) 85.30.5
1.33 (0.84) 85.30.5
1.3 (0.70) 85.30.5
1.33 (0.80) 85.30.5
1.3 (0.79( 85.50.5
1.37 (0.89) 85.30.5
1.4 (0.97) 85.20.5
1.37 (0.89) 85.30.5
1.37 (0.89) 85.30.5
1.37 (0.89) 85.30.5
1.33 (0.84) 85.30.5
1.33 (0.84) 85.30.5
DISPLAY1
Nhidden POR
3.13 (0.73) 34.10.6
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.2 (0.85) 34.00.6
3.17 (0.75) 34.10.6
3.17 (0.75) 34.10.6
3.13 (0.73) 34.10.6
3.13 (0.73) 34.10.6
3.13 (0.73) 34.10.6
3.13 (0.73) 34.10.6
3.13 (0.73) 34.10.6
3.5 (0.78) 33.90.5
3.13 (0.73) 34.50.7
3.17 (0.75) 34.00.6
3.13 (0.73) 34.10.6
3.13 (0.73) 34.10.6
2.67 (0.47) 592
3.13 (0.73) 34.10.6
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.5 (0.78) 33.90.5
3.13 (0.73) 34.10.6
3.13 (0.73) 34.10.6
Mtodo 1
Mtodo 2a
Mtodo 2b
Mtodo 2c
Mtodo 2d
Mtodo 2e
Mtodo 3
Mtodo 4
Mtodo 5
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 8c
Mtodo 8d
Mtodo 8e
Mtodo 9
Mtodo 10
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 12
Mtodo 13
GLASS
Nhidden
POR
4.03 (1.61) 75.01.4
4.6 (1.52) 74.51.4
4.33 (1.42) 74.61.4
4.07 (1.60) 75.01.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
4.6 (1.63) 74.71.4
4.23 (1.57) 75.11.4
4 (1.60) 75.11.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
3.2 (1.30) 84.11.6
4.03 (1.61) 75.01.4
4.5 (1.57) 74.41.42
4.67 (1.58) 74.41.5
4.77 (1.59) 74.51.4
4.77 (1.59) 74.51.4
4.7 (1.51) 74.51.4
4.63 (1.61) 74.81.5
4.77 (1.59) 74.51.4
4.77 (1.59) 74.51.4
4.03 (1.61) 75.01.4
4.03 (1.61) 75.01.4
HEART
Nhidden
POR
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (01.8) 82.10.8
1.03 (0.18) 82.10.8
1 (0)
82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
1.03 (0.18) 82.10.8
- 205 -
IMAGEN
Nhidden
POR
5.13 (0.78) 54.20.7
5.47 (0.63) 54.80.7
5.33 (0.71) 54.80.7
5.23 (0.73) 54.40.7
5.2 (0.76) 54.20.7
5.2 (0.76) 54.20.7
5.13 (0.78) 54.20.7
5.13 (0.78) 54.20.7
5.13 (0.78) 54.20.7
5.13 (0.78) 54.20.7
5.13 (0.78) 54.20.7
5.07 (0.69) 53.60.5
5.07 (0.69) 53.60.5
5.17 (0.83) 54.20.7
5.13 (0.78) 54.20.7
5.13 (0.78) 54.20.7
4.5 (0.63) 87.21.4
5.13 (0.78) 54.20.7
5.5 (0.63) 54.80.7
5.5 (0.63) 54.80.7
5.5 (0.63) 54.80.7
5.5 (0.63) 54.80.7
5.5 (0.63) 54.80.7
5.5 (0.63) 54.80.7
5.5 (0.63) 54.80.7
5.5 (0.63) 54.80.7
5.13 (0.78) 54.20.7
5.13 (0.78) 54.20.7
Mtodo 1
Mtodo 2a
Mtodo 2b
Mtodo 2c
Mtodo 2d
Mtodo 2e
Mtodo 3
Mtodo 4
Mtodo 5
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 8c
Mtodo 8d
Mtodo 8e
Mtodo 9
Mtodo 10
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 12
Mtodo 13
MOK1
Nhidden
POR
1.57 (0.82) 76.40.7
2.97 (1.56) 76.30.7
1.97 (1.47) 76.30.7
1.73 (1.28) 76.30.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
2.2 (1.40) 76.40.7
2.07 (1.28) 76.30.7
1.47 (0.68) 76.40.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
1.73 (1.11) 76.40.7
1.57 (0.82) 76.40.7
2.9 (1.42) 76.00.7
2.97 (1.50) 76.30.7
3.07 (1.53) 75.90.8
3.23 (1.50) 76.30.7
3.1 (1.49) 76.30.7
3.07 (1.53) 76.30.7
3.17 (1.49) 75.90.8
3.23 (1.50) 76.30.7
1.57 (0.82) 76.40.7
1.57 (0.82) 76.40.7
MOK2
Nhidden
POR
1.97 (1.19) 66.20.5
2.23 (1.30) 66.20.5
2.07 (1.26) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
2.17 (1.26) 66.20.5
2.07 (1.20) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
1.6 (0.67) 66.20.5
1.97 (1.19) 66.20.5
1.97 (1.16) 65.70.7
1.87 (1.14) 66.20.5
1.97 (1.27) 66.20.5
1.93 (1.23) 66.20.5
2.2 (1.30) 66.20.5
2 (1.26) 65.60.8
1.93 (1.23) 65.70.8
2.03 (1.33) 65.90.6
1.97 (1.19) 66.20.5
1.97 (1.19) 66.20.5
- 206 -
VOTING
Nhidden
POR
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.13 (0.57) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.2 (0.76) 95.30.4
1.2 (0.76) 95.30.4
1.2 (0.76) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
1.2 (0.76) 95.30.4
1.23 (0.77) 95.30.4
1.23 (0.77) 95.30.4
Captulo 5
- 207 -
- 208 -
- 209 -
1 Capa oculta
2 Capa oculta
Capa de salida
wiij ai + q j
(5.1)
i =1
(5.2)
j =1
Nh 2
wh2 mk h 2om + x 2 k
(5.3)
m =1
h1o j = f ( h1i j ) =
1 + exp( -h1i j )
(5.4)
1
1 + exp( -h 2im )
- 210 -
(5.5)
Y para la salida:
ook =
(5.6)
1 + exp( -oik )
E P
Dwh 2 m,k (t + 1) = h wh 2
m ,k
E P
Dwh1 j ,m (t + 1) = h wh1
j ,m
E P
Dwii , j (t + 1) = h wi
i, j
+ b Dwh 2 m,k (t )
(5.7)
+ b Dwh1 j ,m (t )
+ b Dwii , j (t )
E P
oo P,k
oo P,k
oi P ,k
oi P ,k
wh 2 m,k
(5.8)
= -(t P ,k - ooP ,k )
(5.9)
= ooP ,k (1 - ooP, k )
(5.10)
= h 2o P,m
Sustituyendo:
d P,k = - ( t P ,k - oo P ,k ) oo P,k (1 - oo P ,k )
E P
wh 2 m ,k
(5.11)
= d P ,k h 2o P ,k
Por otra parte, la derivada para los pesos de la otra capa oculta ser:
E P
wh1 j ,m
oo P
k
P ,k
oo P ,k
oi P ,k
- 211 -
oi P ,k
wh1 j ,m
(5.12)
oi P ,k
h 2o P ,m
h 2o P,m h 2i P,m
(5.13)
(5.14)
E P
wh1 j ,m
= h1 P,m h1o P , j
wii , j
oo P
k
P ,k
oo P ,k oi P ,k
oi P ,k wii , j
(5.15)
oi P ,k
h 2o P ,m
(5.16)
Sustituyendo:
oi P ,k
wii , j
(5.17)
Y queda finalmente:
h2 P, j = h1P ,m wh1 j ,m h1o P, j (1 - h1o P, j )
E P
wii , j
(5.18)
= h2 P, j a P ,i
= P, k h 2o P ,k
= h1 P,m h1o P , j
= h2 P, j a P ,i
- 212 -
(5.19)
5.2. METODOLOGA
5.2. Metodologa
Se han seleccionado 16 problemas para realizar la comparacin. Los
problemas se encuentran en el UCI repository of machine learning databases, y
ya fueron descritos en el primer captulo.
Los problemas utilizados son: Abalone (AB), Balance Scale Weight &
Distance (BL), Cylinder Bands (BN), BUPA Liver Disorders (BU), Credit
Approval (CR), Display1 (D1), Display2 (D2), Glass Identification (GL), Heart
Disease (HE), Image Segmentation (IM), The Monks Problems (M1, M2),
Mushroom (MM), Musk (MK), Pima Indians Diabetes (PI), Voting Records (VO).
Para cada problema hemos obtenido el mnimo perceptrn de una capa
oculta mediante un proceso de prueba y error, y usado cros-validacin para hallar
tanto el nmero de unidades ptimo como el punto de convergencia.
Tambin hemos obtenido la red mnima para el caso de dos capas ocultas y
hemos utilizado el mismo proceso que antes, utilizando una bsqueda exhaustiva
entre las estructuras con N nodos ocultos en la primera capa, y dos nodos ocultos
en la segunda capa y viceversa, es decir dos nodos ocultos en la primera capa
oculta y N nodos en la segunda, donde N es el nmero de nodos ocultos mnimo
para la red de una sola capa oculta.
En algunos casos, hemos encontrado diferentes candidatos con similar
eficiencia (calculada con cros-validacin) para la estructura de la red mnima, en
estos casos hemos tomado varias redes candidatas.
Para el caso de dos capas ocultas en la red, hemos utilizado la sugerencia de
la referencia [2] para acelerar y estabilizar la convergencia, es decir, hemos
modificado la funcin de transferencia para las neuronas de salida usando la
ecuacin (5.20) con x=0.02.
f ( x) =
1- 2
1 + e- x
(5.20)
- 213 -
5.2. METODOLOGA
- 214 -
Nh1-Nh2
3-2
3-3
3-4
.......
3-Nh
Nh1-Nh2
4-2
4-3
4-4
.......
4-Nh
- 215 -
Nh1-Nh2
.......
.......
.......
.......
.......
Nh1-Nh2
Nh -2
Nh -3
Nh -4
.......
Nh -Nh
Base
Dos Capas Ocultas
de Arquitectura Nmero de Porcentaje
Datos
Pesos
Clasificacin
AB
BL
BN
BU
8-17-3
4-6-3
39-13-2
6-8-2
207
51
506
74
50 5
58 9
68.2 1.3
68.3 1.6
AB
BL
BN
BU
CR
15-9-2
164
86.6 0.6
CR
D1
D2
7-15-10
14-21-10
280
535
71.9 1.3
70.9 0.8
D1
D2
GL
HE
IM
M1
10-6-6
13-6-2
19-13-7
6-5-2
108
98
358
47
78.9 1.1
80.6 0.9
91.0 0.5
73.6 1.1
GL
HE
IM
M1
M2
MM
MK
6-14-2
22-10-2
166-7-2
128
252
1185
66.3 0.9
97.6 0.3
93.1 0.3
M2
MM
MK
PI
8-15-2
167
95.9 0.6
PI
VO
16-13-2
249
94.5 0.2
VO
- 216 -
8-2-4-3
4-3-3-3
39-3-2-2
6-7-4-2
6-6-7-2
15-5-3-2
15-6-2-2
7-6-6-10
14-13-10-10
14-17-7-10
14-20-4-10
10-2-4-6
13-3-3-2
19-7-5-7
6-3-5-2
6-5-3-2
6-6-4-2
22-2-2-2
166-2-5-2
166-4-2-2
8-14-4-2
8-9-9-2
16-2-4-2
45
39
134
91
107
106
116
160
445
461
434
64
62
222
53
61
80
58
361
684
196
191
56
50 3
74 7
69 1
63 3
61 3
81 4
84 3
54 8
62 6
69.6 0.7
50 9
52 6
71 4
73 2
77 5
78 4
68.1 1.5
83 5
89 1.6
89.0 1.9
73 1
74 1
94 1
- 217 -
5.4. CONCLUSIONES
5.4. Conclusiones
Hemos presentado en este captulo una comparacin experimental de la
capacidad de generalizacin de las redes Multilayer Feedforward con una sola
capa oculta y con dos capas ocultas.
Hemos usado un total de 16 problemas reales para poder medir la capacidad
generalizacin de ambas arquitecturas.
Realizamos una seleccin previa de las arquitecturas mnimas de cada tipo
para cada problema usando un procedimiento de prueba y error.
Se entrenaron 10 redes con una sola capa oculta y con dos, con el objetivo
de eliminar la dependencia con las condiciones iniciales en el entrenamiento y
encontrar un error en los resultados.
De nuestros resultados, podemos concluir que la capacidad de
generalizacin de una red con una capa oculta es en general mejor que en una red
con dos capas ocultas.
Por ello, pensamos que en general, con los algoritmos de entrenamiento
usados no es razonable utilizar redes con ms de una capa oculta.
Adems, hemos observado que para redes con ms de una capa oculta la
convergencia es bastante mala, hay algunos problemas en los que hemos tenido
gran dificultad en encontrar redes convergidas.
Los resultados de nuestra investigacin sobre este tema fueron publicados y
presentados en dos conferencias internacionales. En [10] y [11] tenemos las
referencias de dichas publicaciones.
- 218 -
- 219 -
Captulo 6
- 221 -
- 222 -
- 223 -
- 224 -
e x - e-x
2
f ( x ) =
tanh (2 x )
2 tanh ( x )
(6.1)
- 225 -
6.2.2. Mtodo 2
En la referencia [16], se propone un mtodo que es una variante de la
inicializacin clsica.
A partir de las ecuaciones del algoritmo de entrenamiento Backpropagation
los autores de la referencia obtienen una condicin que se debe satisfacer para qu
sea posible la convergencia.
Los autores proponen por ello, acotar los valores de los pesos en los lmites
mnimos dados por el intervalo que proporciona la ecuacin (6.2).
Ninput
<
wi
(6.2)
6.2.3. Mtodo 3
En la referencia [2], se describe un nuevo mtodo un poco diferentes de la
inicializacin clsica. En l se propone una nueva estrategia de entrenamiento,
llamada Delta Pre-Training (DPT), con la cual se optimizan los valores iniciales
de los pesos antes del proceso propio de entrenamiento.
Este mtodo esta basado en lo siguiente. Supongamos que empezamos el
entrenamiento inicializando todos los pesos a cero. De esta forma no habra
saturacin prematura y el error y la derivada de la funcin de transferencia seran
mximos, lo cual resultar en una correccin de los pesos mxima y la
convergencia ser ms rpida.
Sin embargo, en el entrenamiento con Backpropagation no se pueden
inicializar los pesos a cero. Por ello, cualquier mtodo que comience con los pesos
inicializados a cero y que consiga luego aplicar Backpropagation sobre los pesos
obtenidos en el mtodo mejorara considerablemente la convergencia.
Los autores del mtodo que denominan DPT, intentan, utilizando la
adaptacin de los pesos en la capa superior y la ecuacin de correccin del error
en una red Multilayer Feedforward, entrenar una serie de perceptrones en los
cuales los pesos estn inicializados a cero.
Para ello, en lugar de utilizar una red Multilayer Feedforward sta es
dividida en simples perceptrones. Por ejemplo, en nuestro caso de redes con una
sola capa oculta, la red es dividida en dos perceptrones: el primero formado por la
capa de entrada y la capa oculta, y el segundo formado por la capa oculta y la de
salida. Una vez divididos habr que definir cuales sern los nuevos objetivos y
entradas respectivas de los nuevos perceptrones.
Despus, los pesos de los perceptrones son inicializados a cero y se realiza
un preentrenamiento de ambos perceptrones usando la Regla Delta, como
algoritmo de entrenamiento
Mediante la Regla Delta no podemos entrenar cada perceptrn hacia la
convergencia. Sin embargo, podemos adaptar los pesos a unos valores ms
apropiados para conseguir despus la convergencia de la red Multilayer
Feedforward con los pesos inicializados en estos valores.
- 227 -
(6.3)
- 228 -
- 229 -
6.2.4. Mtodo 4
En la referencia [17] se propone una nueva inicializacin de los pesos de tal
forma que se cumplan las ecuaciones siguientes.
wo
wi
<1 o
wo < wi
(6.4)
wi xi + wo
(6.5)
i =1
Si igualamos este valor a cero se obtendrn las lneas de corte de los ejes xi
con los puntos (-wo/w1,0,...,0), (0,-wo/w1,0,...,0), ..., (0,0,...,-wo/w1). La ecuacin
(6.5) se puede escribir:
- 230 -
Ninput
i =1
xi
( - wo / wi )
=1
(6.6)
wo
wi
<1
(6.7)
6.2.5. Mtodo 5
En la referencia [10] se da otro mtodo basado en consideraciones
geomtricas (las mismas del mtodo anterior). Las lneas lmite de las unidades de
la capa oculta deben estar en el espacio de variabilidad de los valores de las
entradas. Pero en este caso, se exige tambin la condicin de que el espacio de
variabilidad de las entradas debe estar en la regin lineal de la funcin de
transferencia (sigmoide o tangente hiperblica) y no en la zona de saturacin.
Con esta ltima condicin, las unidades ocultas no estarn saturadas al
principio, no tendrn una saturacin incorrecta y se permite que los pesos
evolucionen mucho ms rpidamente hacia su valor final ya que la derivada de la
funcin de transferencia es mayor en la regin lineal.
El mtodo est basado en el siguiente algoritmo, el cual se utiliza para
calcular los pesos wi conectados entre la unidad i de una capa y las unidades de la
capa inferior (n pesos).
- 231 -
Algoritmo:
1) Calcular b mediante la ecuacin (6.8), donde f es la funcin de
transferencia y un cierto parmetro. En la referencia se utiliza el valor
0.1 para y nosotros utilizaremos tambin dicho valor en nuestros
experimentos.
b= f
-1
(1 - ) - f
-1
( )
(6.8)
b
k n
para sigmoide
(6.9)
2 k n
(6.10)
(6.11)
(6.12)
wi
(6.13)
i =1
- 232 -
Como siempre nosotros haremos un estudio desde los tres puntos de vista
nombrados en la introduccin.
6.2.6. Mtodo 6
En la referencia [12], se propone asignar diferentes inicializaciones de los
pesos dependiendo de la importancia de las entradas.
A mayor importancia de una entrada el valor de inicializacin de los pesos
relacionados debera ser mayor. En particular, en la referencia slo se muestran
simulaciones y resultados para un problema con 8 entradas, se inicializan las
entradas ms importantes en [0.5,1], las menos en [0,0.5] y el resto en [0,1].
En la referencia, se utiliza un mtodo para definir la importancia de las
entradas, sin embargo puesto que nosotros ya hemos realizado un estudio muy
detallado referente a este tema, hemos utilizado en nuestra investigacin el mejor
de los mtodos que estudiamos y que se describe en la referencia [18].
Una vez realizada la ordenacin de las entradas en funcin de su
importancia, nosotros las clasificamos en tres grupos: las entradas ms
importantes (primeras de la lista), las entradas menos importantes (ltimas de la
lista) y el resto de entradas. En el primer y segundo grupo incluimos alrededor de
un cuarto del total de entradas (en cada uno) y en el otro alrededor de la mitad.
En nuestros experimentos, los pesos de las entradas ms importantes (primer
grupo) son inicializados aleatoriamente en el intervalo [0.5,1], las menos
importantes en [0,0.5] y el resto en [0,1], tal y como se sugiere en [12].
Los resultados de la referencia slo son analizados desde el punto de vista
de velocidad de convergencia y capacidad de generalizacin. Nosotros
incluiremos tambin el estudio desde el punto de vista de xito en la
convergencia.
- 233 -
6.2.7. Mtodo 7
Este mtodo se denomina SCAWI y se propone en las referencias [8] y [20].
En primer lugar, se dan una serie de definiciones que sern necesarias para
desarrollar el mtodo.
Definicin 1: Una neurona est en estado de saturacin cuando la
magnitud de sus salidas es mayor que un determinado
threshold o umbral.
Definicin 2: Una neurona est en estado paralizado cuando est
saturada y la magnitud de al menos una salida de error
(diferencia entre una salida de la red y sus objetivos) es
mayor o igual que un valor predeterminado.
Recordemos que con Backpropagation, cuanto mayor sea la magnitud de
salida de una neurona menor ser su derivada y el entrenamiento se har ms
dificultoso.
En [8] se utiliza el concepto de paralyzed neuron percentage (PNP).
Definicin 3: Se define un parmetro llamado paralyzed neuron
percentage (PNP), testeando cuantas veces una neurona
est en estado paralizado.
Durante las simulaciones puede calcularse el valor de PNP, para un
conjunto de pesos, considerando todo el conjunto de entrenamiento y contando
cuantas neuronas (de la capa oculta y de salida) estn en estado paralizado y
dividiendo este resultado entre el nmero de patrones.
La expresin para inicializar los pesos ser:
w ji =
R ao
j
Nj
r ji ;
j =
E [xi2 ]
(6.14)
i =1
- 234 -
1
N input
Ninput
E [ I i2 ]
(6.15)
i =1
hidden = 1 + N hidden E [ S 2 ] ;
(6.16)
1 .3
1 + N input 2
rij
(6.17)
1.3
1 + 0.3 N hidden
rij
(6.18)
- 235 -
6.2.8. Mtodo 8
En la referencia [13] se describen dos mtodos de inicializacin de pesos
que se denominan: Forward Estimation Algorithm y Recurrent Estimation
Algorithm.
Los mtodos estn basados en la idea de que si las condiciones iniciales de
la red se escogen cercanas a un mnimo, el proceso de entrenamiento posterior
tendr una convergencia ms rpida.
Nosotros denominaremos a los mtodos como Mtodo8a y Mtodo8b.
Veamos primero cual es la notacin que se usar en la descripcin de los
mtodos.
Ninput
Nhidden
Nsalida
Wi
Wh
Bi y Bh
yjP
djP
La ecuacin (6.19) expresa las salidas de las unidades ocultas a partir de las
entradas y pesos.
f [ XMb
Wi
] L
Bi
=H
- 236 -
(6.19)
f [ HM b
Wh
] L
Bh
=D
(6.20)
[ H M b ] L = G L = f
Bh
Bh
-1
(D ) = Y
(6.21)
Los valores de f(x) estn limitados al intervalo [-1,1] y por ello para poder
calcular la inversa hay que limitarse a las cercanas de dicho intervalo.
f
-1
( x ) = (tanh( x )) -1
(6.22)
Wh
WH = L = G -1 Y
Bh
- 237 -
(6.23)
(6.24)
Donde G# es la pseudo-inversa de G.
Caso c)
Si
(6.25)
Donde G# es la pseudo-inversa de G.
El algoritmo Forward Estimation queda finalmente como:
1) Inicializar aleatoriamente las matrices Wi y Bi en el intervalo ( - , ).
2) Calcular H (salidas de la capa oculta).
3) Estimar los valores de Wh y Bh utilizando una de las ecuaciones de los
3 casos anteriores.
Mtodo8b: Recurrent Estimation Algorithm
Este algoritmo utilizar como primer paso el resultado del anterior.
El objetivo es acercar cada vez ms los valores de inicializacin de los pesos
a un mnimo, minimizando para ello la raz del error cuadrtico medio (RMSE)
cuya expresin viene dada por la siguiente ecuacin:
RMSE =
1
P
N
i =1
1
salida
Nsalida
j =1
2
(d ij - y ij )
- 238 -
(6.26)
-1
( D ) - b Bh = Z
(6.27)
Para cada uno de los tres casos del mtodo anterior calculamos H segn la
ecuacin (6.28).
si r ( [ Wh T M Z T ] ) = r (Wh T ) = N hidden
Z Wh -1
-1
H = Z (Wh T Wh ) Wh T
Z Wh T (Wh Wh T )-1
(6.28)
si r ( [ Wh T M Z T ] ) r (Wh T )
(6.29)
Wi
Bi
Bi
[ X M b ] L = A L = f -1 ( H ) = K
(6.30)
De nuevo tenemos tres casos posibles para la solucin segn los valores de
los rangos de las matrices. Los pesos Wi y Bi se pueden calcular por la ecuacin
(6.31).
-1
Wi A K
L = A (A AT )-1 K
-1
Bi (AT A) AT K
si r ( [ AM K ] ) = r ( A) = ( N input + 1)
si r ( [ AM K ] ) = r ( A) < ( N input + 1)
si r ( [ AM K ] ) = r ( A)
- 239 -
(6.31)
6.2.9. Mtodo 9
En la referencia [11] se describe un nuevo mtodo de inicializacin de pesos
basado en la idea de reducir el tiempo de entrenamiento.
De nuevo, se intenta buscar un mejor punto de inicio para el proceso de
aprendizaje, y para ello se aplican conceptos de tipo geomtrico modificando de
forma simple el modelo de red Multilayer Feedforward.
Supongamos un perceptrn de dos capas en la cual las neuronas de salida
son lineales. Se puede expresa dicha salida como:
n
r
r r
f ( x ) = i ( i x + i ) + o
i =1
- 240 -
(6.32)
i (d i ( x - ti )) + o
(6.33)
i =1
- ri
i
(6.34)
- 241 -
r
ti en [- 1 , 1 ]
r
di
r
en esfera de radio unidad
di
(6.35)
l1 , l2 con l = 2; l = 10
1
2
2 2
i) Inicializamos aleatoriamente d i .
r
(6.36)
- 242 -
6.2.10. Mtodo 10
El mtodo descrito en la referencia [22] utiliza lo que se llaman Prototipos
para inicializar los pesos de la red. Los autores hacen mencin de un mtodo de
clculo de prototipos llamado RCE, descrito en la referencia [23]. Con este
mtodo el nmero de prototipos que se escoja determinar el nmero de unidades
ocultas de la red a entrenar. En el apndice del captulo se encuentran los
resultados finales del nmero de unidades ocultas escogido.
Veamos en primer lugar en que consiste el mtodo de inicializacin
propuesto y despus el mtodo de generacin de prototipos.
Mtodo de inicializacin
r
p o h:
y1
r
y = M
y
n -1
r
x=
- 243 -
y1
y n -1
n -1
1
2
y i
r 2 i =1
(6.37)
WI i , N +1 = - i
(6.38)
i < 1
(6.39)
WH c, K +1 = -1
(6.40)
- 244 -
(6.41)
- 245 -
r r
r r
donde p i p i = 1
i > 1
(6.42)
o > 1
(6.43)
r
tal que
r r
r p r f (c ) = 1
(6.44)
Estas dos reglas para adquirir y modificar los prototipos llevan a la red a
aprender la distribucin espacial de los patrones.
- 246 -
Para una red no entrenada, las neuronas de G no estn conectadas con las de
H por lo que los elementos de la matriz B sern todos ceros, o un nmero muy
pequeo.
Cuando se presenta un patrn a la red las neuronas H no respondern por
encima de un cierto umbral.
r
(6.45)
Para otro patrn diferente f (c) tal que pertenezca a la misma clase que el
anterior c=c pueden darse dos casos como se indica en la ecuacin (6.46). En el
caso a) la neurona Hc debera activarse y el patrn estara correctamente
clasificado, y en el caso b)el patrn esta mal clasificado y debe ser asignado un
nuevo prototipo P2(c) con la unin entre G y Hc igual a 1.
r
r
a ) o p1 (c) f (c) > 1
r
r
b) o p1 (c) f (c) < 1
(6.46)
tal que
r
r
1 p1 (c) f (c) = 1
(6.47)
- 247 -
6.2.11. Mtodo 11
En la referencia [24] se presenta un nuevo mtodo de inicializacin de
pesos, basado en la aproximacin de los lmites de decisin de las clases de los
patrones de entrada.
En Multilayer Feedforward las clases estn separadas por hiperplanos. Los
autores desarrollan un mtodo de inicializacin que impone una serie de
restricciones en la orientacin y localizacin de los hiperplanos de la capa
intermedia (ecuaciones de sumas de entrada ponderadas). Estas restricciones
intentan eliminar los estados fsicos de la red que estn altamente relacionados
con los falsos mnimos locales en la red, mejorando as la convergencia.
En la referencia [25], en la cual se basan los autores del presente mtodo, se
utilizan conceptos de agrupamiento (en ingls clustering) y de vecinos ms
prximos para encontrar las fronteras de decisin entre las clases (en ingls
boundary segment), de forma que a partir de estas se pueda encontrar una
inicializacin de los pesos.
Como hemos dicho antes, la red Multilayer Feedforward se conoce como un
clasificador de hiperplanos, es decir se puede encontrar una funcin discriminante
que separe las diferentes clases mediante hiperplanos. Las redes son entrenadas
- 248 -
Oi = f i ( x) = g
wij s j ( x) + bi
(6.48)
s j ( x ) = g
w jk x j + b j = g (h j (x) )
(6.49)
Las funciones hj(x) representan las ecuaciones de los hiperplanos para los
diferentes valores de j si igualamos sus valores a cero.
En la referencia [25], se calcula la posicin inicial y orientacin de las
fronteras de las clases, usando agrupamiento (clustering) de los datos y el mtodo
de vecinos ms prximos.
Los datos de entrenamiento son primero clasificados, agrupados por clases
(clusters), del resultado se calcula la media los centros de cada grupo (centros
de cada cluster) que representarn entonces a cada grupo. Se calcula para cada una
de las parejas de centros ms cercanos los lmites que representarn un segmento.
Por ejemplo para dos dimensiones de entrada, la frontera es perpendicular a
la bisectriz de la lnea que conecta dos centros de grupos de clases diferentes.
Las ecuaciones que representan dichos segmentos sern:
h j ( x) = X T ( P - Q ) -
1
2
(P T P - Q T Q )
(6.50)
- 249 -
(6.51)
De aqu se pueden deducir las ecuaciones para calcular los pesos entre la
capa de entrada y la oculta, siendo b un escalar que hay que escoger:
W j = (P - Q)
bj = -
(6.52)
(P P - Q Q )
T
- 250 -
P (w j | X i ) =
kj
k
j = 1,..., m i = 1,..., p
(6.53)
3) El siguiente paso ser eliminar del conjunto TORG los patrones que estn
mal clasificados usando el mtodo de k-vecinos ms prximos.
i) Para cada patrn Xi se calcula cul es la clase ms probable
segn la ecuacin (6.53), para todas las clases j busco cual
tiene mayor probabilidad.
ii) Si la clase objetivo de Xi no coincide con la clase de mayor
probabilidad, hay que rechazar ese patrn y eliminarlo del
conjunto de patrones. T= TORG - {Xi}
iii) Se repite el proceso de i) a iii) para todos los patrones i de TORG.
iv) Al acabar, se toma TORG=T.
4) Eliminar los patrones que estn en la regin de no aceptacin. Para ello
primero se busca la regin L(t) formada por los ejemplos o patrones que
son muy cercanos al lmite, donde los mtodos de vecinos ms prximos
tienen alta probabilidad de error.
i) Para cada patrn disponemos de las probabilidades de
pertenecer a cada una de las clases, ecuacin (6.53). Para un
patrn Xi calculo qu clase tiene mayor probabilidad y la llamo
maximo1. Calculo qu clase tiene el siguiente mximo para la
probabilidad y la llamo maximo2. Es decir, las dos clases que
tienen mayor probabilidad.
ii) Si (maximo1-maximo2)<ACEPTAR se rechaza el patrn Xi. Es
decir, si las probabilidades de dos clases son muy cercanas no
est claro a que clase debe pertenecer por lo que se rechaza.
ACEPTAR es un umbral que se debe fijar.
iii) Se toma T= TORG - {Xi}, se repite (i) y (ii) hasta recorrer todos
los patrones de TORG.
iv) Al acabar, tomar TORG=T.
5) Ordenar los patrones de TORG en cada subconjunto de clases en orden
ascendente segn el valor de la probabilidad de pertenencia a las clases.
Es decir, TEDT={T1,T2,...,Tm}, donde en el subconjunto Tj de patrones que
pertenecen a la clase j, primero estar el patrn que tiene menor
probabilidad de estar en esa clase y el ltimo ser el patrn con mayor
probabilidad.
6) Construir el conjunto TCNN escogiendo el primer patrn de cada uno de
los subconjuntos de clases anteriores. Es decir, TCNN estar formado por
- 251 -
m patrones cada uno de una clase (el que tiene menos probabilidad de
ser de la clase, las fronteras).
7) Utilizar el algoritmo CNN modificado para clasificar y seleccionar
patrones. Para ellos, redefinir el conjunto TCNN aadiendo los patrones
necesarios.
i) Para cada elemento Xi de TEDT encontrar la distancia de los
elementos de TCNN a Xi. Sea Xj de TCNN el elemento que dista
menos a Xi
ii) Si Xj y Xi , no son de la misma clase y XiTCNN se aade Xi al
conjunto TCNN. Poner TCNN= {TCNN , Xi}
iii) Repetir los pasos i) y ii) para todos los elemento de TEDT .
Despus de aplicado el algoritmo CNN modificado, tendremos el conjunto
TCNN de patrones que son necesarios para realizar la inicializacin, es decir para
calcular las fronteras, ecuacin (6.50).
Por cada patrn del conjunto TCNN cabe la posibilidad de que se genere una
unidad oculta en la red neuronal. En el apndice del captulo, podemos encontrar
el nmero de unidades ocultas obtenido para este mtodo y para las diferentes
bases de datos que usaremos.
Proceso de inicializacin:
Partimos de los conjuntos TORG y TCNN anteriores.
1) Para un patrn Xi del conjunto TCNN encontrar el vecino ms prximo Xj
de TORG: tendremos el Xj que dista menos de Xi.
2) Para el patrn Q=Xi de TCNN y el vecino calculado P=Xj.
i) Si es el primer patrn seleccionado de TCNN, calcular la frontera o
contorno (boundary segment), que es, el bisector perpendicular
de la pareja (P,Q), segn la ecuacin (6.50). Podemos
representar dicho contorno mediante un vector fila:
Contorno i = [ - (P T P - Q T Q ) , ( P - Q )
(6.54)
- 252 -
3) Repetir los pasos anteriores hasta completar todos los patrones del
conjunto TCNN. Al final tendremos una matriz CONTORNO con vectores
fila (contornoi para todo i).
4) Seleccionar el nmero de unidades de la capa oculta de la red Multilayer
Feedforward como el nmero de contornos o fronteras calculadas.
5) A partir de las ecuaciones de los contornos, inicializar los pesos entre la
capa de entrada y la capa oculta utilizando las ecuaciones (6.51) (6.52),
donde b es un parmetro que se debe escoger. La matriz de pesos
coincidir con la matriz CONTORNO del paso 3.
6) Para calcular los pesos entre la capa oculta y la capa de salida una vez
conocidos los de la capa anterior podemos:
i) Calcular la salida de la capa oculta a partir de los pesos
anteriores, usando la funcin de transferencia tangente
hiperblica y aadiendo la neurona umbral con salida 1.
ii) Se vuelve a calcular los valores de los objetivos de las entradas
en el intervalo [-0.99, 0.99] para poder calcular la inversa de la
funcin de transferencia.
iii) Se pueden calcular las entradas a las neuronas de salida
calculando la inversa de la funcin de transferencia (de la
tangente hiperblica)
iv) Los pesos se pueden calcular a partir de la pseudoinversa de las
salidas de la capa oculta, multiplicadas por las entradas a las
neuronas de salida.
En este mtodo se utilizan tres parmetros que hay que escoger: el nmero
KNN de vecinos a usar en el mtodo de k-vecinos ms prximos, el umbral lmite
ACEPTAR para rechazar patrones que estn en la regin de no aceptacin y b.
6.2.12. Mtodo 12
En la referencia [9] se describe un nuevo mtodo de inicializacin basado en
conceptos geomtricos.
Como hemos visto hasta ahora, la existencia de falsos mnimos locales
deteriora el funcionamiento de las redes disminuyendo su eficiencia e, incluso,
impidiendo la convergencia o haciendo esta muy lenta.
- 253 -
- 254 -
Nhidden j
j +
Nhidden
(6.55)
r =
(6.56)
0.5
j
El vector que define la orientacin del hiperplano j vendr dado por los
ngulos segn la ecuacin:
(6.57)
(W Punto )T = (W (r W ))T
(6.58)
i =1
wj
wj
- 255 -
(6.59)
(6.60)
ji xi + b j = 0
i =1
"i, j
(6.61)
M WI ]
(6.62)
6.2.13. Mtodo 13
En la referencia [26], se describe un nuevo mtodo que utiliza un
aprendizaje no supervisado en el proceso de inicializacin de pesos.
Los pesos entre la capa de entrada y la capa oculta pueden ser determinados
a travs de variaciones lineales o no lineales, de las llamadas reglas de
aprendizaje Hebianas generalizadas (en ingls generalized Hebbian learning
rules), tambin conocidas como Reglas de Oja. En la investigacin, se utilizaran
- 256 -
x m, k m = 1,2,..., N
r
r
r
ho j ,k = (hi j ,k ) = (v j T x k )
r
v j T = (v j 0 , v j1 ,..., v jN )
r
hk T = (1, ho1,k , ho 2,k ,..., ho Nh,k )
r
r
ooi ,k = (oii ,k ) = ( wi T hk )
Funciones de activacin
(.) y (.)
r
r
si h ik = VkT-1 x k
- 257 -
(6.63)
Nh
r
r
r
r
vi ,k = vi ,k -1 + a hii ,k x k - him,k v m ,k -1
m =1
(6.64)
(
( )
)) (
(6.65)
r
r
r
vi ,k = vi ,k -1 + a Lh (hii ,k ) x k Ld (hi m,k ) v m ,k -1
m =1
- 258 -
(6.66)
i) Calcular h ik = V T x k
r
Nh
E vold = E v
- 259 -
Lh(z)=z y Ld(z)=tanh(z)(1-tanh(z)2)
Mtodo13a
Mtodo13b
- 260 -
6.3. METODOLOGA
6.3. Metodologa
El objetivo principal de la investigacin desarrollada en este captulo es
evaluar la eficiencia de diferentes mtodos de inicializacin de pesos, con relacin
al procedimiento de inicializacin clsico.
En el apartado anterior se describieron detalladamente 13 mtodos
diferentes de inicializacin de pesos, en donde el primero de ellos es la
inicializacin clsica.
Algunos autores a la hora de desarrollar sus mtodos han tenido en cuenta
qu funcin de transferencia (sigmoide o tangente hiperblica) sera utilizada
posteriormente para el entrenamiento de la red.
As, podemos encontrar varios mtodos que se enfocaron al uso de la
sigmoide y algunos que utilizan exclusivamente la tangente hiperblica.
En el resto de mtodos no se especific el tipo de funcin de transferencia y
en principio son vlidos para cualquiera de las dos, pero adaptando los datos a un
intervalo adecuado. Nosotros hemos utilizado para la sigmoide datos
normalizados en el intervalo [0,1], y para la tangente hiperblica datos
normalizados en [-1,1].
Puesto que el tipo de funcin de transferencia era diferente en los mtodos,
pensamos que para poder realizar una comparacin fiable entre ellos deberamos
ver en qu sentido podra influir esto. Por ello, en nuestras investigaciones antes
de enfrentarnos al problema de utilizar todos los mtodos realizamos una pequea
prueba.
Partimos de los 6 primeros mtodos, pensados para la utilizacin de la
funcin de transferencia sigmoide y evaluamos su eficiencia con 8 problemas de
clasificacin.
Para tener una medida relativa de la eficiencia que proporcionaban ambas
funciones de transferencia, adaptamos el mtodo clsico (mtodo 1) para utilizar
como funcin de transferencia la tangente hiperblica. Esto lo realizamos
simplemente adaptando los datos de los problemas para que estuviesen
normalizados en el intervalo [-1,1].
Despus comparamos los resultados obtenidos para el mtodo 1 tanto
cuando utilizamos la funcin sigmoide como cuando utilizamos la tangente
hiperblica. As, nos dimos cuenta que el uso de la funcin de transferencia
tangente hiperblica, mejoraba en gran medida tanto la capacidad de
- 261 -
6.3. METODOLOGA
- 262 -
6.3. METODOLOGA
- 263 -
6.3. METODOLOGA
- 264 -
- 265 -
- 267 -
- 268 -
- 269 -
- 271 -
- 272 -
6.5. CONCLUSIONES
6.5. Conclusiones
Hemos realizado un anlisis de la utilidad de los diferentes mtodos de
inicializacin de pesos frente a la inicializacin clsica, es decir, inicializacin
aleatoria dentro de un cierto intervalo.
El estudio ha sido realizado desde tres puntos de vista diferentes, capacidad
de generalizacin, probabilidad en la convergencia y velocidad de convergencia.
Con los resultados obtenidos podemos concluir que algunos de los mtodos
presentan ventajas con respecto al mtodo clsico, sobre todo en el aspecto de
mejorar la capacidad de generalizacin de las redes.
Por ello podemos recomendar el uso de alguno de estos mtodos para
inicilizar los pesos de las redes a la hora de resolver un problema concreto de
clasificacin.
Aunque parece que el mtodo 5 ofrece mejores resultados presenta la
dificultad de tener que escoger ciertos parmetros. Dichos parmetros influyen en
su eficiencia, aunque la sensibilidad al valor de los parmetros no fue muy alta.
Por ello, quizs sea preferible recomendar el uso del mtodo 4 debido a su
simplicidad y buenos resultados para todos los problemas estudiados.
Los resultados obtenidos en la investigacin realizada en este captulo han
sido publicados en varios congresos internacionales. En la bibliografa mostramos
sus referencias completas que son [19], [27] y [28].
- 273 -
- 274 -
[16] Kim, Y.K., Ra, J.B., Weight Value Initialization for Improving Training
Speed in the Backpropagation Network. Proceedings of International Joint
Conference on Neural Networks, vol. 3, pp. 2396-2401, 1991.
[17] Palubinskas, G., Data-driven Weight Initialization of Back-propagation for
Pattern Recognition. Proceedings of the International Conference on
Artificial Neural Networks (ICANN'94), vol. 2, pp. 851-854, 1994.
[18] Utans, J., Moody, J., et al., Input variable selection for neural networks:
Application to predicting the U.S. business cycle. Proceedings of IEEE/
IAFE Computational Intelligence for Financial Engineering, pp. 118-122,
1995.
[19] Fernndez, M., Hernndez, C., Input selection by Multilayer Feedforward
trained networks. Proceedings of the 1999 IEEE International Joint
Conference on Neural Networks, pp. 1834-1839, 1999
[20] Drago, G.P, Ridella S., SCAWI: an algorithm for weight initialization of a
sigmoidal neural network. Proceedings. of the International Conference on
Artificial Neural Networks (ICANN92), vol. 2, pp. 983-986, 1992.
[21] Nakayama K., Hirano A., Ido I., A multilayer neural network with
nonlinear inputs and trainable activation functions: structure and
simultaneous learning algorithms. Proceedings of the International Joint
Conference on Neural Networks, 1999.
[22] Denoeux, T., Lengell, R., Initializing Back Propagation Networks With
Prototypes. Neural Networks, vol. 6, pp. 351-363, 1993.
[23] Reilly, D.L., Cooper, L.N., Elbaum, C., A neural Model for Category
Learning. Biological Cybernetics, vol. 45, pp. 35-41, 1982.
[24] Tarek Kaylani, Sushil Dasgupta, Weight initialization of MLP classifiers
using boundary-preserving patterns. 1994.
[25] Smyth, S.G., Designing Multilayer Perceptrons from Nearest Neighbor
Systems. IEEE Transactions on Neural Networks, vol. 3, no. 2, pp. 329333. 1992.
[26] Karayiannis, N.B., Accelerating the Training of Feedforward Neural
Networks Using Generalized Hebbian Rules for Initializing the Internal
Representations. IEEE Transactions on Neural Networks, vol. 7, no. 2, pp.
419-426. March 1996.
[27] Fernndez, M., Hernndez, C., A comparison among weight inicialization
methods for Multilayer Feedforward networks. Proceedings of the 2000
IEEE International Joint Conference on Neural Networks, vol. 4, pp. 543548, 2000.
[28] Fernndez, M., Hernndez, C., Weight initialization methods for multilayer
feedforward. European Symposium on Artificial Neural Networks
(ESANN'2001). En prensa. Bruges (Belgium).
- 275 -
- 276 -
TEST
125
55
70
130
600
50
59
465
80
80
80
155
80
105
Mtodo 1
Mtodo 2
Mtodo 3b
Mtodo 3c
Mtodo 3d
Mtodo 3f
Mtodo 3g
Mtodo 3h
Mtodo 4
Mtodo 5a
Mtodo 5b
Mtodo 5c
Mtodo 5d
Mtodo 5e
Mtodo 5f
Mtodo 5g
Mtodo 5h
Mtodo 5i
Mtodo 6
POR
78.91.1
79.61.1
------------------------78.81.1
--------------------131
--------3.51.3
77.71.1
GL
N
0
0
20
20
20
20
20
20
0
20
20
20
20
20
18
20
20
16
0
ITER
1294134
1115133
------------------------1192118
--------------------3246398
--------366784
1369170
POR
80.60.9
80.71.0
52.54
----54.24
------------80.61.0
----4717
46.60.7
----83.05
45.90.6
----639
503
80.40.9
- 277 -
HE
N
0
0
19
20
19
20
20
20
0
20
17
3
20
19
3
20
16
6
0
ITER
5012
4913
2182
----3000
------------5413
----4177296
1880214
----1080
2219310
----3432580
2157344
10930
POR
73.61.1
74.90.9
------------------------73.11.1
----50.50.9
63.11.7
----53.91.7
692
----59.41.6
75.21.4
741
M1
N
0
0
20
20
20
20
20
20
0
20
0
0
20
0
0
20
0
0
0
ITER
522124
51075
------------------------697130
----732100
672106
----1169156
626134
----1062146
668131
14016
Mtodo 1
Mtodo 2
Mtodo 3b
Mtodo 3c
Mtodo 3d
Mtodo 3f
Mtodo 3g
Mtodo 3h
Mtodo 4
Mtodo 5a
Mtodo 5b
Mtodo 5c
Mtodo 5d
Mtodo 5e
Mtodo 5f
Mtodo 5g
Mtodo 5h
Mtodo 5i
Mtodo 6
POR
66.30.9
66.10.9
------------------------------------614
--------636
--------668
66.90.5
M2
N
1
0
20
20
20
20
20
20
20
20
20
13
20
20
12
20
20
16
0
ITER
80682
899187
------------------------------------2259248
--------3730495
--------4122921
1490317
POR
84.11.1
83.91.2
53.75
----534
------------83.81.1
67.41.1
82.21.4
88.21.1
68.41.5
83.91.4
88.51.0
69.91.1
85.71.5
88.00.8
84.41.2
M3
N
0
0
19
20
16
20
20
20
0
0
0
0
0
0
0
0
0
0
0
Mtodo 1
Mtodo 2
Mtodo 3b
Mtodo 3c
Mtodo 3d
Mtodo 3f
Mtodo 3g
Mtodo 3h
Mtodo 4
Mtodo 5a
Mtodo 5b
Mtodo 5c
Mtodo 5d
Mtodo 5e
Mtodo 5f
Mtodo 5g
Mtodo 5h
Mtodo 5i
Mtodo 6
POR
95.90.6
95.80.6
------------------------95.90.5
--------------------------------702
95.40.6
VO
N
ITER
0
4316
0
223
20
----20
----20
----20
----20
----20
----1
274
20
----20
----20
----20
----20
----20
----20
----20
----7 217396
0
9730
POR
96.90.3
96.80.3
729
63.8
61
----61
35.24
96.90.3
--------64.40.5
--------64.40.5
--------64.50.5
96.70.3
WD
N
ITER
0
11025
0
11525
17 16836
19
159
19
2301
20
----19
3
19
930
0
10224
20
----20
----8 1986115
20
----20
----4 2064102
20
----20
----7 2090102
0
9619
- 278 -
ITER
47681
724132
1330
----324128
------------394106
37433
15722
40069
33534
17339
480102
39860
34686
22756
28645
HE
81.21.1
0
22080
M1
97.60.8
0
7414
M2
72.51.2
0
500200
M3
93.91.2
2
444135
VO
94.30.5
0
12070
WD
96.10.4
0
47299
BL
BN
BU
CR
D1
GL
HE
IM
M1
M2
PI
VO
Nhidden
Medio
65.6
48.1
67.2
70.1
69.3
20.3
39.7
104.7
88.1
55.3
124.8
26.5
Desviacin
Nhidden
25.30
19.05
32.25
32.33
5.96
7.40
14.75
31.49
23.22
25.78
51.85
12.22
Nhidden
Mnimo
28
19
27
26
60
10
18
65
35
28
44
12
Nhidden
Maximo
108
81
121
117
80
36
67
161
134
117
214
56
BL
BN
BU
CR
D1
GL
HE
IM
M1
M2
PI
VO
Nhidden
Medio
32.6
10.5
32.3
13.5
7
12
10.8
39.4
51.8
35.4
29.4
13.1
Desviacin
Nhidden
4.41
1.94
6.76
2.54
0.26
2.63
2.25
7.48
12.46
7.19
3.00
4.37
- 279 -
Nhidden
Mnimo
25
7
22
9
6
7
5
27
30
19
24
4
Nhidden
Maximo
39
15
45
20
8
17
15
51
69
48
36
21
Mtodo 1
Mtodo 2
Mtodo 3a
Mtodo 3b
Mtodo 3c
Mtodo 3d
Mtodo 3e
Mtodo 3f
Mtodo 3g
Mtodo 3h
Mtodo 4
Mtodo 5a
Mtodo 5b
Mtodo 5c
Mtodo 5d
Mtodo 5e
Mtodo 5f
Mtodo 5g
Mtodo 5h
Mtodo 5i
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 9
Mtodo 10a
Mtodo 10b
Mtodo 10c
Mtodo 10d
Mtodo 10e
Mtodo 10f
Mtodo 10g
Mtodo 10h
Mtodo 10i
Mtodo 10j
Mtodo 10k
Mtodo 10l
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 11i
Mtodo 11j
Mtodo 11k
Mtodo 11l
Mtodo 12
Mtodo 13a
Mtodo 13b
Mtodo 13c
POR
91.80.4
91.00.5
--------------------------------91.10.4
91.20.5
91.40.5
91.30.4
91.10.5
91.00.4
91.70.4
91.50.5
91.50.4
91.30.4
91.40.5
90.60.4
343
----802
88.70.5
85.61.0
822
79.221.2
80.8
84.61.0
824
80.8
86.50.7
83.21.0
813
78.4
502
596
502
596
544
514
482
71.20.8
4510
523
563
754
792
802
812
763
BL
N
1
0
30
30
30
30
30
30
30
30
0
0
0
0
0
0
0
0
0
0
0
1
19
-0
0
0
22
27
29
0
24
29
1
0
20
29
15
25
15
25
20
17
18
28
25
18
20
24
0
0
0
0
ITER
35080
680190
--------------------------------550120
620130
540130
1000200
1000200
720160
900200
1200300
1100200
800200
800200
1100200
10
----460130
1200300
600150
1900600
130050
2367
53080
2600900
2367
450150
490190
1500500
1229
119
3.81.0
1110
3.81.1
10
2.51.1
76
360190
10
150120
6040
1600800
530170
810190
1200200
900200
POR
66.81.3
66.91.6
64.81.1
64.81.1
64.81.1
64.81.1
64.81.1
64.81.1
64.81.1
64.81.1
68.31.7
65.51.2
67.41.4
67.11.2
68.31.2
68.51.4
66.41.1
67.01.2
67.31.1
595
65.31.3
67.71.2
613
----63.61.7
65.21.0
63.81.3
613
--66.01.2
63.91.2
644
--64.11.3
65.61.1
633
--602
583
603
583
64.21.6
62.01.8
642
613
583
603
642
603
572
583
64.41.0
583
- 280 -
BN
N
ITER
11 800300
8 720180
19
10
19
10
19
10
19
10
19
10
19
10
19
10
19
10
8 700200
5 1600400
8 900300
5 600200
4 1200300
7 1000300
6 1100300
6 470160
7 680180
6 1200200
5 800200
5 600200
18
76
-----6 690190
17 900400
12
4020
27 900700
30
--14 450190
10 300200
27 29001200
30
--14 500200
17 1100300
26 2000800
30
--6 600200
5 420130
6 600200
5 420130
5 420140
3 1000200
5 1200300
1 600200
3 700200
8 800300
6 590190
8 800200
4 1400300
6 1400300
2 1100300
8 1800300
POR
59.41.0
60.00.9
58.61.4
58.61.4
58.61.4
58.61.4
58.61.4
58.61.4
58.61.4
58.61.4
60.81.3
60.81.5
61.91.3
60.41.6
61.01.3
62.11.4
61.41.7
62.41.1
63.11.4
60.81.4
61.31.3
60.90.9
522
----54.31.5
53.31.6
513
56.31.6
50.61.8
54.71.3
45.7
54.41.4
53.71.9
56.00.6
--55.51.1
52.91.8
522
522
522
522
522
522
522
522
522
522
522
522
54.61.7
57.31.2
57.31.2
56.81.3
BU
N
3
1
23
23
23
23
23
23
23
23
3
0
5
3
2
2
3
1
1
3
4
4
11
-3
14
24
12
14
16
29
8
18
19
30
9
17
11
11
11
11
11
11
11
11
11
11
11
11
2
2
4
4
ITER
1300400
1300300
10
10
10
10
10
10
10
10
2800600
1400400
1500500
500160
1700500
1700400
1100300
1300300
1500400
1400300
2100500
1600400
10
----2000300
900400
500400
700400
400400
1200600
117
1600500
190100
3200800
--700300
320120
10
10
10
10
10
10
10
10
10
10
10
10
2300500
1500400
800200
1700400
Mtodo 1
Mtodo 2
Mtodo 3a
Mtodo 3b
Mtodo 3c
Mtodo 3d
Mtodo 3e
Mtodo 3f
Mtodo 3g
Mtodo 3h
Mtodo 4
Mtodo 5a
Mtodo 5b
Mtodo 5c
Mtodo 5d
Mtodo 5e
Mtodo 5f
Mtodo 5g
Mtodo 5h
Mtodo 5i
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 9
Mtodo 10a
Mtodo 10b
Mtodo 10c
Mtodo 10d
Mtodo 10e
Mtodo 10f
Mtodo 10g
Mtodo 10h
Mtodo 10i
Mtodo 10j
Mtodo 10k
Mtodo 10l
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 11i
Mtodo 11j
Mtodo 11k
Mtodo 11l
Mtodo 12
Mtodo 13a
Mtodo 13b
Mtodo 13c
POR
85.50.5
85.60.5
--------------------------------85.70.5
85.50.5
86.00.5
85.50.5
85.80.4
85.40.4
86.10.4
86.10.5
----85.90.5
86.10.5
86.00.5
51.91.5
----733
752
783
793
73.0
76.21.8
81.11.8
85.51.0
83.8
80.81.7
82.51.6
85.10.9
--776
773
776
773
714
753
693
703
743
713
723
733
693
673
723
713
CR
N
0
0
30
30
30
30
30
30
30
30
0
0
0
0
0
0
1
0
30
1
0
0
1
-0
0
17
18
29
0
1
20
29
0
1
20
30
26
15
26
15
15
8
0
0
2
0
0
0
0
1
8
2
ITER
1300400
1700500
--------------------------------1000400
1200300
1900500
1400400
1300400
1400400
2500500
1400400
----1100300
1700400
900300
200200
----1300400
1200400
1300800
2700800
594
900300
600200
1900600
12
1000400
1200300
1600600
--400200
1700600
400200
1700600
2000700
1100400
1500500
900300
1500400
410150
1200400
700300
800200
1900400
3500600
1700400
POR
69.30.7
71.20.6
--------------------------------71.10.5
71.40.5
70.60.6
----70.70.5
69.30.6
71.20.5
70.60.5
----71.00.5
64.81.5
70.10.6
------47.81.6
51.91.4
59.71.2
513
64.41.8
60.81.2
64.01.2
63.01.6
62.31.5
63.71.5
67.90.9
60.91.3
63.21.7
40.91.8
40.91.8
41.81.7
40.61.8
402
40.61.9
402
39.61.6
382
38.11.8
362
392
45.31.8
40.01.9
43.81.9
392
- 281 -
D1
N
3
3
30
30
30
30
30
30
30
30
3
4
3
30
3
4
3
3
30
4
5
3
30
-0
7
13
24
20
3
3
13
19
20
4
17
20
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
ITER
720140
670120
----------------------------------------1090170
870180
850160
----790130
570120
760150
650150
----880140
920170
590140
------900150
500150
270180
55090
800300
630130
350120
1000200
700300
1300300
630140
137
560190
600120
600120
960150
570120
550140
450110
480120
660160
520140
500130
750150
470110
620100
1070150
820140
1200150
POR
90.41.1
88.91.1
--------------------------------90.70.9
90.21.4
90.21.2
89.11.2
91.90.8
90.80.9
87.60.9
90.00.9
88.21.6
89.71.0
85.71.1
88.21.1
24
----473
364
473
403
505
344
484
534
584
373
333
613
554
383
335
383
326
335
446
405
458
334
407
335
323
423
554
483
494
GL
N
ITER
3
11112
2
15040
30
----30
----30
----30
----30
----30
----30
----30
----2
16040
2
19040
3
12114
2
13020
5
22040
5
9111
2
20060
2
20060
5
16040
2
13919
7 300100
5
23060
29
2029
-----5 600200
11 400200
15 1100300
7 650190
18 900200
14 900300
19 1000300
6 660170
17 800300
15 1700300
19 1900400
9 760120
18 1800400
25
10
23 300200
25
10
24 400300
27
10
27 25001000
27 3620190
23 1800500
23 900500
25 900300
28 17001300
22 1900500
3 800200
2 1100300
2 900300
0 700200
Mtodo 1
Mtodo 2
Mtodo 3a
Mtodo 3b
Mtodo 3c
Mtodo 3d
Mtodo 3e
Mtodo 3f
Mtodo 3g
Mtodo 3h
Mtodo 4
Mtodo 5a
Mtodo 5b
Mtodo 5c
Mtodo 5d
Mtodo 5e
Mtodo 5f
Mtodo 5g
Mtodo 5h
Mtodo 5i
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 9
Mtodo 10a
Mtodo 10b
Mtodo 10c
Mtodo 10d
Mtodo 10e
Mtodo 10f
Mtodo 10g
Mtodo 10h
Mtodo 10i
Mtodo 10j
Mtodo 10k
Mtodo 10l
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 11i
Mtodo 11j
Mtodo 11k
Mtodo 11l
Mtodo 12
Mtodo 13a
Mtodo 13b
Mtodo 13c
POR
81.21.1
81.71.1
75.11.5
563
784
723
655
648
78.41.9
703
80.60.8
81.00.9
81.30.8
80.30.8
81.10.8
79.81.4
80.71.1
80.00.9
81.50.9
81.71.1
80.90.8
80.81.0
654
----732
79.01.1
80.71.1
76.71.9
--78.31.2
79.71.2
76.71.7
--80.60.8
79.41.2
75.01.6
--76.71.7
75.61.9
76.71.7
75.61.9
77.71.7
78.61.5
75.81.8
762
693
683
702
712
76.71.5
713
713
723
HE
N
ITER
4
22080
3 320140
27 700700
28
10
26
98
25
10
24
10
28
10
26
10
26
10
4 430160
3 430160
2 700200
3 500200
2 630180
3 600200
3 390180
2 600200
2 400140
5 290130
3 500200
4 200100
23 600400
-----0 350140
3
9050
12 500200
23 900500
30
--1 280150
2 800300
26 370170
30
--3 340190
5 700200
26 22001100
30
--4 370150
4 530170
4 370150
4 530170
2 330170
2 900300
3 370160
3 490150
2 900300
1 370190
3
15080
3 390170
1
26080
4 800200
3 600200
4 600200
POR
722
702
--------------------------------74.71.9
702
762
693
672
732
752
752
73.71.7
722
593
702
------413
283
18.31.3
16.21.8
21.31.4
18.01.4
14.80.4
253
30.71.7
16.40.5
14.60.2
202
222
14.4
15.7
14.4
15.7
----14.0
--13.3
14.6
----374
14.50.2
272
13.60.3
- 282 -
IM
N
5
4
30
30
30
30
30
30
30
30
5
9
10
9
7
10
13
7
13
10
11
8
30
-4
16
12
25
19
12
17
25
9
13
18
19
18
29
29
29
29
30
30
29
30
29
29
30
30
12
0
20
17
ITER
710130
1010150
--------------------------------950170
1350180
1150180
1060170
1030180
1420140
970190
1100180
1300200
1100180
1040180
1090160
------1080160
600200
280120
580170
8050
16070
400200
17050
17050
330120
280190
300100
330100
1
1
1
1
----1
--1
1
----1340190
4020
830180
1770130
POR
97.60.8
98.20.8
--------------------------------97.31.1
98.70.6
96.11.2
97.31.2
97.00.8
98.10.8
97.40.9
98.30.7
----97.50.8
96.61.0
99.00.7
50.70.8
----643
--------6312
------656
--58.8
--698
705
698
705
635
683
707
685
8217
673
52.01.1
633
613
592
613
603
M1
N
2
2
30
30
30
30
30
30
30
30
1
3
1
1
0
1
1
3
30
1
1
2
4
-0
30
30
30
30
28
30
30
30
27
30
29
30
25
19
25
19
26
11
25
14
28
14
14
4
1
2
5
1
ITER
7414
200100
--------------------------------6816
565
13050
15050
22080
8030
8030
11040
----17070
10518
5413
190130
----3109
--------200200
------800500
--1303
--2400600
2500300
2400600
2500300
2200700
400200
400200
530170
1100900
550130
900200
450130
25070
410120
19040
32060
Mtodo 1
Mtodo 2
Mtodo 3a
Mtodo 3b
Mtodo 3c
Mtodo 3d
Mtodo 3e
Mtodo 3f
Mtodo 3g
Mtodo 3h
Mtodo 4
Mtodo 5a
Mtodo 5b
Mtodo 5c
Mtodo 5d
Mtodo 5e
Mtodo 5f
Mtodo 5g
Mtodo 5h
Mtodo 5i
Mtodo 6
Mtodo 7
Mtodo 8a
Mtodo 8b
Mtodo 9
Mtodo 10a
Mtodo 10b
Mtodo 10c
Mtodo 10d
Mtodo 10e
Mtodo 10f
Mtodo 10g
Mtodo 10h
Mtodo 10i
Mtodo 10j
Mtodo 10k
Mtodo 10l
Mtodo 11a
Mtodo 11b
Mtodo 11c
Mtodo 11d
Mtodo 11e
Mtodo 11f
Mtodo 11g
Mtodo 11h
Mtodo 11i
Mtodo 11j
Mtodo 11k
Mtodo 11l
Mtodo 12
Mtodo 13a
Mtodo 13b
Mtodo 13c
POR
72.51.2
73.81.3
613
624
623
644
54.40.6
53.10.6
595
595
71.91.0
71.40.9
72.91.1
73.40.7
72.40.9
73.71.0
72.61.1
72.91.4
72.51.0
72.80.8
72.01.3
73.11.0
54.91.5
----612
608
65
653
--575
62.5
----494
--662
--66.50.5
66.01.0
66.50.5
66.00.9
64.51.6
63.11.7
63.51.5
65.51.6
64.21.7
65.21.2
573
602
--64.01.7
632
633
M2
N
ITER
4 500200
1 900300
26
43
27 300300
27
21
27 20002000
28
10
28
10
28
10
28
10
1 700300
6 320110
5 700200
4 1100400
3 800300
1 500200
1 460140
4 1000300
1 1000300
2 1300400
7 600180
5 1000400
2
10
-----1 900300
28
115
29
350
28 450150
30
--26 14001300
29
1199
30
--30
--26 15001300
30
--27 1400600
30
--5 1200500
4 1500400
5 1200500
2 1400400
10 900400
1 1500300
3 600300
1 1500400
7 1100400
8 19001500
11 1400400
1 900300
30
--0 600200
4
20060
2 1200400
POR
75.60.5
76.00.5
65.10.8
65.20.7
65.00.8
64.90.8
64.90.9
64.90.8
65.10.8
65.10.8
74.50.7
74.80.7
75.60.7
75.50.5
76.20.7
74.50.6
74.60.7
75.10.7
74.90.6
75.60.7
74.80.6
75.20.6
64.90.9
----70.81.5
67.1
--683
66.11.0
----614
633
----71.30.3
--64.90.9
64.90.9
64.90.9
64.90.9
64.90.9
64.90.9
64.90.9
64.90.9
64.90.9
64.90.9
632
632
74.30.7
683
614
643
- 283 -
PI
N
0
0
17
14
16
17
18
17
17
17
0
0
0
0
0
0
0
0
0
0
0
0
18
-0
23
30
20
18
30
30
10
23
30
30
16
30
18
18
18
18
18
18
18
18
18
18
17
16
0
3
7
2
ITER
1400500
800400
10
10
10
10
10
10
10
10
1200500
2800800
1800600
2200600
1200500
1400500
800300
1600500
1500600
700200
1600500
900300
10
----1400500
44
--22
10
----83
22
----1700400
--10
10
10
10
10
10
10
10
10
10
140140
4030
1200400
2100600
3000800
2500600
POR
94.30.5
94.70.4
84.91.7
82.01.5
842
832
85.31.1
85.41.6
82.81.7
83.41.6
94.10.5
95.00.4
94.70.5
94.40.5
94.70.5
95.20.4
95.10.4
94.40.5
94.80.5
94.80.4
95.00.3
94.50.4
82.01.6
----89.01.9
93.21.0
91.31.8
90.11.6
--92.80.7
865
804
--90.81.2
873
703
--892
91.41.6
892
91.41.6
90.31.4
90.01.6
843
862
872
882
90.11.9
863
764
90.01.7
91.81.3
92.21.1
VO
N
0
0
19
16
19
17
19
16
18
17
0
0
0
0
0
0
0
0
0
1
0
0
14
-0
6
21
20
30
11
27
21
30
12
26
21
30
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
ITER
12070
8050
10
130130
6060
10
10
10
10
10
12060
14070
8020
8040
15050
8050
20090
11050
9030
12070
270110
13070
5040
----19080
290110
600300
600200
--320110
1000500
900200
--500200
1400500
1100200
--17070
540150
17070
540150
390130
14040
18090
230110
9030
15060
16060
250100
270100
22090
25070
19060
- 284 -
Captulo 7
- 286 -
introducir alguna mejora en dicho mtodo que solventar dicha situacin. Esto
podra ser un trabajo de investigacin futuro.
Tambin en el captulo tercero, se estudi el efecto de introducir para el
entrenamiento de las redes iniciales de los mtodos basados en el anlisis de la red
Multilayer Feedforward un trmino de regularizacin, weight-decay. Segn la
bibliografa este trmino debera mejorar la eficiencia en la tarea de seleccin de
entradas.
Aplicamos weight-decay a 17 de los mtodos ARNMF estudiados y sobre
ocho problemas. El resultado que obtuvimos fue que el empleo de weight-decay
mejoraba la eficiencia de los peores mtodos y deterioraba la eficiencia de los
mejores. En este sentido, disminuirn las diferencias entre los mtodos de
seleccin de entradas. As, al seleccionar uno cualquiera de los mtodos ARNMF
para resolver un determinado problema obtendramos una eficiencia ms uniforme
si utilizamos el trmino de regularizacin weight-decay, pero nunca
alcanzaramos la eficiencia proporcionada por los mejores mtodos ARNMF sin
el uso de weight-decay. Por ello nosotros no recomendamos su uso.
Como ejemplo de algunos de los resultados del captulo se present la
aplicacin a un caso real de patologa de la voz. En l, se consigui reducir el
nmero de entradas de la red necesario para resolver el problema de clasificar
entre voces normales y voces patolgicas de 35 a 2. Vemos as que los mtodos de
seleccin de entradas pueden ser muy tiles en la resolucin de problemas reales.
Como trabajo futuro, se seguir realizando revisiones bibliogrficas
peridicas sobre este tema de manera de que en caso de que surgieran nuevos
mtodos intentaramos incluirlos en nuestra ordenacin.
En el captulo 4, se mostr un estudio comparativo entre los algoritmos de
aprendizaje avanzados, que seleccionan de forma dinmica el nmero de unidades
de la capa oculta de la red durante el proceso de aprendizaje. Vimos que existan
dos tipos de procedimientos: constructivos y de podado. Nosotros propusimos el
uso de un algoritmo similar al de Hirose, que combin ambos procedimientos
pero en el cual la condicin de parada del algoritmo, se bas en el uso de crosvalidacin como criterio de convergencia de las redes.
Se estudiaron dos procedimientos constructivos y trece de podado y se
combinaron entre s, cada mtodo constructivo se utiliz con cada uno de los trece
mtodos de podado. El algoritmo propuesto se aplic a once problemas.
Se concluy que como procedimiento constructivo, el de HIROSE
proporcionaba una capacidad de generalizacin superior que el de KHORASANI,
- 287 -
- 288 -
- 289 -
- 290 -
Captulo 8
REFERENCIAS BIBLIOGRFICAS
Referencias Bibliogrficas
En este captulo se incluyen las referencias bibliogrficas, de libros,
proceedings y revistas especializadas que han sido consultados asiduamente para
la elaboracin de la presente Tesis Doctoral y que pueden ser de utilidad a
cualquier persona que pretenda realizar un trabajo de investigacin sobre redes
neuronales.
Estn ordenadas alfabticamente por el nombre del primer autor.
[1]
[2]
[3]
[4]
[5]
[6]
Ahmad, S., Tresp, V., Classification with missing and uncertain inputs.
Proceedings of 1993 IEEE International Conference on Neural Networks,
pp. 1949-1954, San Francisco, California, March 1993.
Alefeld, G., Herzberger, J., Introduction to Interval Computations.
Academic Press. New York. 1983.
Andersen, T., Martinez, T., Cross Validation and MLP Architecture
Selection. International Joint Conference on Neural Networks
(IJCNN99). 1999.
Anguita D., Ridella S., Rovetta S., Limiting the Effects of Weight Errors
in Feedforward Networks using Interval Arithmetic. Proceedings of the
International Conference on Neural Networks, vol. 1, pp. 414-417, 1996.
Armitage, W.D., Jien-Chung Lo, Enhancing the robustness of a
Feedforward neural network in the presence of missing data. Proceedings
of IEEE International Conference on Neural Networks, pp. 836-839, 1994.
Ash, T., Dynamic node creation. Connection Science, vol. 1, no. 4, pp.
365-375, 1989.
- 291 -
REFERENCIAS BIBLIOGRFICAS
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[17]
[18]
[19]
[20]
[21]
[22]
[23]
[24]
Atiya, A., Ji, C., How initial conditions affect generalization performance
in large networks. IEEE Transactions on Neural Networks, vol. 8, no. 2,
pp. 448-451, 1997.
Azimi-Sadjadi, M. R., Sheedvash, S., Trujillo, F. O., Recursive dynamic
node creation in Multilayer Neural Networks. IEEE Transactions on
Neural Networks, vol. 4, no. 2, pp. 242-256, 1993.
Babri H.A., Tong Y., Deep Feedforward Networks: Application to Pattern
Recognition. Proceedings of the 1996 International Conference on Neural
Networks. 1996, vol. 3, pp. 1422-1426.
Banci G., Monini S., Falaschi A., Sairo N., Vocal fold disorder evaluation
by digital speech analysis. Journal of Phonetics, vol. 14, pp. 495-499,
1986.
Bartlett, E. B., A dynamic node architecture scheme for layered neural
networks. Journal of Artificial Neural Networks, vol. 1, no. 2, pp. 229245, 1994.
Bartlett, E. B., Dynamic node architecture learning: An information
theoretic approach. Neural Networks, vol. 7, no. 1, pp. 129-140, 1994.
Bartlett, E. B., Self determination of input variable inportance using neural
networks. Neural, Parallel & Scientific Computations, vol. 2, pp. 103-114.
1994.
Battiti, R., Using mutual information for selecting features in supervised
neural net learning. IEEE Transactions on Neural Networks, vol. 5, no. 4,
pp. 537-550, 1994.
Belue, L.M., Bauer, K.W., Determining input features for multilayer
perceptrons. Neurocomputing, vol. 7, no. 2, pp. 111-121, 1995.
Bishop, C., Exact calculation of the hessian matrix for the multilayer
perceptron. Neural Computation, vol. 4, pp. 494-501, 1992.
Bos, S., Chug, E., Using weight-decay to optimize the generalization
ability of a perceptron. Proceedings of IEEE International Conference on
Neural Networks, vol. 1, pp. 241-246, 1996.
Bounds, D. G., Lloyd, P. J., A multilayer perceptron for the diagnosis of
low back pain. Proceedings of the IEEE International Conference on
Neural Networks, vol. 2, pp. 481-489, 1988.
Bowles, A.: Machine learns which features to select. Proceedings of the 5th
Australian Joint Conference on Artificial Intelligence, pp. 127-132, 1992.
Boyanov B., Chollet G., Pathological voice analysis using cepstra,
bispectra and group delay functions. Proceedings of the International
Conference on Spoken Language Processing, pp. 1039-1042, 1992.
Boyanov B., Hadjitodorov S., Baudoin G., Acoustical analysis of
pathological voice. Proceedings of the Slovenian German Workshop on
Speech Analysis and Recognition, 1996.
Boyanov B., Hadjitodorov S., Ivanov T., Analysis of voiced speech by
means of bispectrum. Electronics Letters, vol. 7, no. 24, pp. 2267-2268,
1991.
Boyanov B., Hadjitodorov S., Teston B., Doskov D., Robust hybrid
detector for pathological voice analysis. LARYNX 1997, pp. 55-58, 1997.
Boyanov B., Hadjitodorov S., Teston B., Doskov D., Software system for
pathological voice analysis. LARYNX 1997, pp. 139-142, 1997.
- 292 -
REFERENCIAS BIBLIOGRFICAS
[25] Callant, D.E., Kent, R.D., et al., Self-organizing map for the classification
of normal and disordered female voices. Journal of Speech, Language, and
Hearing Research, vol. 42, no. 2, pp. 355-366, 1999.
[26] Chi, Jabri, "Entropy based feature evaluation and selection technique".
Proceedings of 4th Australian Conference on Neural Networks, (ACNN93),
pp. 193-196, 1993.
[27] Chih-Liang Chen, Nutter, Roy S., Improving the Training Speed of Threelayer Feedforward Neural Nets by Optimal Estimation of the Initial
Weights. International Joint Conference on Neural Networks, vol. 3, part.
1, pp. 2063-2068, 1991.
[28] Cibas, T., Souli, F.F., Gallinari, P., Raudys, S., Variable selection with
neural networks. Neurocomputing, vol. 12, pp. 223-248, 1996.
[29] Cosnard M., Koiran P., Paugam-Moisy H., A Step Toward the Frontier
between One-Hidden-Layer and Two-Hidden Layer Neural Networks.
Proceedings of 1993 International Conference on Neural Networks, vol. 3,
pp. 2292-2295, 1993.
[30] Cybenko, George, Approximation by superposition of sigmoidal
functions. Mathematics of Control Signals, and Systems, vol. 2, pp. 303314. 1989.
[31] Deco, G., Obradovic, D., An information Theoretic Approach to Neural
Computing. Springer-Verlag New York, Inc. 1996.
[32] Denoeux, T., Lengell, R., Initializing Back Propagation Networks With
Prototypes. Neural Networks, vol. 6, pp. 351-363, 1993.
[33] Devena, L., Automatic selection of the most relevant features to recognize
objects. Proceedings of the International Conference on Artificial Neural
Networks, vol. 2, pp. 1113-1116, 1994.
[34] Devroye, L., Gyrfi, L., Lugosi, G., A Probabilistics Theory of Pattern
Recognition. Springer-Verlag New York, Inc. 1996.
[35] Drago, G.P, Ridella S., SCAWI: an algorithm for weight initialization of a
sigmoidal neural network. Proceedings. of the International Conference on
Artificial Neural Networks (ICANN92), vol. 2, pp. 983-986, 1992.
[36] Drago, G.P., Ridella, S., Statistically Controlled Activation Weight
Initialization (SCAWI). IEEE Transactions on Neural Networks, vol. 3,
no. 4, pp. 627-631, 1992.
[37] El-Deredy, W., Branston, N.M., Identification of relevant features in HMR
tumor spectra using neural networks. Proceedings of the 4th International
Conference on Artificial Neural Networks, pp. 454-458, 1995.
[38] Engelbrecht, A.P., Cloete, I., A sensitivity analysis algorithm for pruning
feedforward neural networks. Proceedings of the International Conference
on Neural Networks, vol 2, pp. 1274-1277, 1996.
[39] Engelbrecht, AP., Cloete, I., A sensitivity analysis algorithm for pruning
feedforward neural networks. Proceedings of the International Conference
on Neural Networks, vol. 2, pp. 1274-1277, 1996.
[40] Fahlman, S.E., An experimental study of learning speed in BackPropagation networks. CMU Technical Report, CMU-CS-162, Sept. 1988.
[41] Fernndez, M., Hernndez, C., "A comparison among weight inicialization
methods for Multilayer Feedforward networks". Proceedings of the 2000
- 293 -
REFERENCIAS BIBLIOGRFICAS
[42]
[43]
[44]
[45]
[46]
[47]
[48]
[49]
[50]
[51]
[52]
[53]
[54]
[55]
- 294 -
REFERENCIAS BIBLIOGRFICAS
- 295 -
REFERENCIAS BIBLIOGRFICAS
- 296 -
REFERENCIAS BIBLIOGRFICAS
- 297 -
REFERENCIAS BIBLIOGRFICAS
- 298 -
REFERENCIAS BIBLIOGRFICAS
[120] Sano, H., Nada, A., Iwahori, Y., Ishii, N., A method of analyzing
information represented in neural networks. Proceedings of 1993
International Joint Conference on Neural Networks, pp. 2719-2722, 1993.
[121] Saratchandran P., Effect of Hidden Layers on Generalization Properties of
Feedforward Neural Networks. Neural Parallel & Scientific Computations,
vol. 1, no. 2, pp. 227-240, 1993.
[122] Scalia, F., Marconi, L., Ridella, S., Arrigo, P., Mansi, C., Mela, G. S., An
example of back propagation: diagnosis of dyspepsia, Proceedings of the
First IEEE International Conference on Artificial Neural Networks, pp.
332-335. 1989.
[123] Schalkoff, R. J., Pattern Recognition: Statistical, Structural and Neural
Approaches. John Wiley & Sons, Inc. 1992.
[124] Scherf,, "A new approach to feature selection". Proceedings of the 6th
Conference on Artificial Intelligence in Medicine, (AIME97), pp. 181-184,
1997.
[125] Schoentgen J., Jitter in discriminating between normal and dysphonic
speakers. Applied stochastic models and data analysis, vol. 4, pp. 127-135,
1985.
[126] Setiono, R., Hui, L. C. K., Use of Quasi-Newton method in a Feedforward
neural network construction algorithm. IEEE Transactions on Neural
Networks, vol. 6, no. 1, pp. 273-277, 1995.
[127] Setiono, R., Liu, H., "Improving Backpropagation learning with feature
selection". Applied Intelligence: The International Journal of Artificial
Intelligence, Neural Networks, and Complex Problem-Solving
Technologies, vol. 6, no. 2, pp. 129-139, 1996.
[128] Shimodaira H., A Weight Value Initialization Method for Improved
Learning Performance of the Back Propagation Algorithm in Neural
Networks. Proceedings of the 6th International Conference on Tools with
Artificial Intelligence, pp. 672-675, 1994.
[129] Smyth, S.G., "Designing Multilayer Perceptrons from Nearest Neighbor
Systems". IEEE Transactions on Neural Networks, vol. 3, no. 2, pp. 329333. 1992.
[130] Tamura S., Tateishi M., Capabilities of a Four-Layered Feedforward
Neural Network: Four Layers versus Three. IEEE Trans. on Neural
Networks. 1997, vol. 8, no. 2, pp. 251-255.
[131] Tarek Kaylani, Sushil Dasgupta, "Weight initialization of MLP classifiers
using boundary-preserving patterns". 1994.
[132] Tetko, I.V., Tanchuk, V.Y., Luik, A.I., Simple heuristic methods for input
parameter estimation in neural networks. Proceedings of the IEEE
International Conference on Neural Networks, vol. 1, pp. 376-380, 1994.
[133] Tetko, I.V., Villa, A.E.P., Livingstone, D.J., Neural network studies. 2
Variable selection. Journal of Chemical Information and Computer
Sciences, vol. 36, no. 4, pp. 794-803, 1996.
[134] Thawonmas, R., Abe, S., "Feature reduction based on analysis of fuzzy
regions". Proceedings of the 1995 International Conference on Neural
Networks, vol. 4, pp. 2130-2133, 1995.
- 299 -
REFERENCIAS BIBLIOGRFICAS
- 300 -
REFERENCIAS BIBLIOGRFICAS
[150] Yu, X. H., Can Backpropagation error surface have no local minima.
IEEE Transactions on Neural Networks, vol. 3, pp. 1019-1021, 1992.
[151] Yunik M., Boyanov B., Method for evaluation of the noise-to-harmonic
component ratios in pathological and normal voices. Acustica, vol. 70, pp.
89-91, 1990.
[152] Zhu W., Kikuchi Y., Endo Y., et al., An integrated acoustic evaluation
system of pathologic voice. Proceedings of the International Conference
on Spoken Language Processing, pp. 1983-1986, 1994.
- 301 -
Apndices
APNDICES
I.
- 303 -
REFERENCIAS BIBLIOGRFICAS
- 304 -
505
36.20.9
37.01.1
38.41.6
38.71.9
37.81.5
5%
433
473
463
453
412
39.71.9
10%
436
454
444
444
414
413
20%
52.20.4
49.550.07
49.80.2
49.60.3
47.70.4
46.30.3
30%
474
433
443
443
423
413
40%
474
443
443
443
423
433
Met.4
0%
---
---
---
---
---
---
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
Tabla 6
Test 0%
589
577
556
524
524
523
5%
658
627
606
555
544
534
10%
649
628
607
565
554
553
20%
649
628
606
565
554
544
30%
659
638
607
565
544
543
40%
569
557
546
505
504
484
Met.4
0%
---
---
---
---
---
---
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
- 305 -
Tabla 7
Test 0%
68.21.3
58.11.1
57.80.8
55.10.7
54.20.6
50.10.4
5%
72.40.9
61.00.5
61.51.5
58.80.6
60.40.3
56.90.5
10%
72.20.9
61.10.9
58.50.6
58.20.6
58.30.8
56.00.5
20%
74.50.8
48.30.6
49.40.6
50.30.4
48.50.5
49.105
30%
72.01.1
50.91.7
50.91.1
54.10.6
51.60.6
52.90.6
40%
67.80.5
52.30.8
54.90.5
54.20.6
52.60.6
51.00.8
Met.4
0%
---
---
---
---
---
---
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
Tabla 8
Test 0%
68.31.6
70.01.2
57.81.3
55.00.7
52.50.7
52.60.3
5%
592
57.20.5
54.50.7
53.10.4
52.30.4
52.60.3
10%
58.01.7
54.90.3
51.40.3
52.930.16
51.520.16
51.90.3
20%
53.30.6
55.30.4
51.60.4
52.00.3
54.170.15
51.90.4
30%
540
55.90
51.40
51.60
52.80
53.170.02
40%
53.01.0
54.00.7
50.50.3
50.00.6
53.30.2
51.20.5
Met.4
0%
---
---
---
---
---
---
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
Tabla 9
Test 0%
86.60.6
48.11.3
49.21.2
51.51.1
52.11.0
51.90.7
5%
803
47.30.6
49.60.5
52.60.5
53.50.6
52.90.3
10%
86.20.4
49.11.2
501
50.80.5
51.40.5
52.20.4
20%
83.41.1
49.10.8
48.80.6
50.60.6
49.80.3
52.30.5
30%
87.81.1
46.50.9
48.40.9
50.20.4
60.00.3
51.60.3
40%
87.80.2
48.71.5
48.71.0
50.30.8
50.40.7
51.20.6
Met.4
0%
86.60.6
48.11.3
49.21.2
51.521.07
52.071.04
52.00.7
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
- 306 -
Tabla 10
ENTRENAMIENTO Met.1
Test 0%
0%
71.91.3
10.130.11
9.390.10
9.720.13
9.760.13
9.40.2
5%
674
10.070.05
9.50.3
9.510.12
9.70.3
9.10.2
10% 73.200.05
9.980.02
9.100.05
9.460.13
9.520.06
8.870.15
20%
10.150.07
9.40.2
9.860.11
10.00.2
9.350.09
10.050.01
9.170.02
9.720.02
9.750.09
9.170.05
712
30% 73.650.08
40%
73.350
10.10
9.20
9.70
9.550
9.650
Met.4
0%
71.91.3
10.130.11
9.390.10
9.720.13
9.760.13
9.40.2
Met.5
0%
71.91.3
70.61.3
66.61.3
59.11.1
52.81.1
45.11.1
Tabla 11
ENTRENAMIENTO Met.1
Test 0%
0%
70.90.8
8.620.02
9.070.05
7.630.05
9.970.12
8.470.09
5%
71.60.2
8.540.03
8.640.10
7.650.07
9.510.12
8.270.14
10%
70.70.8
8.580.03
8.990.06
7.710.04
9.810.07
8.660.15
20% 72.000.15
8.600.02
9.070.02
7.990.04
9.390.05
8.570.07
30% 71.220.15
8.610.02
8.770.11
8.110.06
9.770.13
7.990.11
40% 72.170.13
8.550
8.420.08
7.930.03
8.930.08
7.820.13
Met.4
0%
70.90.8
8.620.02
9.070.05
7.630.05
9.970.12
8.470.09
Met.5
0%
70.90.8
67.90.8
63.30.7
59.40.7
53.80.8
46.00.4
Tabla 12
Test 0%
539
456
415
414
394
34.81.3
5%
505
556
505
474
433
382
10%
505
578
527
506
475
403
20%
473
616
565
534
504
432
30%
413
507
476
444
424
392
40%
415
497
455
434
404
382
Met.4
0%
---
---
---
---
---
---
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
- 307 -
Tabla 13
Test 0%
77.60.8
76.11.0
71.40.6
68.30.5
65.10.5
61.70.5
5%
74.50.4
78.30.4
71.90.3
68.320.18
64.480.17
62.60.2
10%
81.00.8
77.970.15
72.30.2
68.60.2
63.40.2
61.10.3
20%
775
764
714
683
642
632
30%
82.00.2
79.40.4
74.40.3
70.380.14
67.070.13
64.780.08
40%
744
744
694
663
632
622
Met.4
0%
---
---
---
---
---
---
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
Tabla 14
Test 0%
91.00.5
973
612
53.21.0
44.00.8
36.90.5
5%
721
792
71.91.4
61.81.0
52.10.5
44.40.5
10%
81.01.4
781
721
641
52.11.5
45.30.2
20%
704
753
713
61.41.1
563
493
30%
702
723
703
642
583
513
40%
715
532
533
512
483
422
Met.4
0%
91.20
643
612
531
441
36.90.5
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
Tabla 15
Test 0%
97.60.3
545
544
563
582
55.31.2
5%
95.70.7
492
502
53.41.5
54.81.0
55.00.7
10%
916
484
514
543
562
562
20%
93.60.5
43.61.8
44.01.5
49.21.2
51.11.2
51.21.3
30%
92.51.6
483
493
53.91.9
56.41.7
56.71.8
40%
90.00.6
622
60.81.6
59.60.9
59.70.4
57.70.6
Met.4
0%
---
---
---
---
---
---
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
- 308 -
Tabla 16
Test 0%
885
732
70.21.3
661
641
601
5%
733
812
772
731
691
641
10%
725
715
684
653
623
582
20%
641
684
663
643
633
602
30%
59.71.3
571
571
581
581
56.00.5
40%
622
672
652
64.21.3
63.21.1
601
Met.4
0%
710
732
70.21.3
661
641
601
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
Tabla 17
Test 0%
70.51.5
653
652
672
65.61.2
661
5%
702
62.51.5
62.71.2
64.71.2
651
651
10%
66.51.0
68.40.5
67.30.5
681
661
661
20%
680
622
632
64.51.3
651
65.70.5
30%
66.70.5
65.51.3
661
671
661
66.30.5
40%
60.71.5
51.41.5
541
571
591
61.11.2
Met.4
0%
70.50
653
652
672
65.71.2
661
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
Tabla 18
Test 0%
892
713
723
723
723
722
5%
81.20.4
84.71.6
81.91.3
75.71.3
72.131.14
671
10%
823
85.61.3
842
782
752
702
20%
882
91.41.1
901
85.91.5
832
782
30%
91.71.5
853
852
832
812
782
40%
806
755
755
745
744
724
Met.4
0%
910
713
723
723
723
722
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
- 309 -
Tabla 19
Test 0%
93.10.3
85.010.04
85.570.09
85.610.07
84.810.10
84.00.3
5%
81.31.8
91.240.15
88.710.19
84.00.4
82.30.5
79.40.7
10%
79.91.3
90.780.08
89.050.15
84.00.4
82.70.6
79.21.1
20%
82.30.6
89.110.18
88.480.13
86.090.12
85.410.16
82.60.3
30%
88.00.8
87.20.5
87.70.4
86.470.12
85.760.17
83.110.16
40%
88.21.0
85.00.3
85.60.3
85.160.12
85.420.14
84.810.13
Met.4
0%
---
---
---
---
---
---
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
Tabla 20
Test 0%
74.90.3
45.11.5
47.91.1
52.21.0
55.50.6
59.70.7
5%
73.11.0
71.11.5
71.21.1
68.81.0
68.71.1
69.50.9
10%
71.21.2
73.51.2
73.81.0
70.60.9
70.90.7
70.40.6
20%
68.01.5
69.51.8
69.51.6
67.61.2
68.50.9
67.31.0
30%
67.70.5
60.81.4
62.71.1
64.50.3
66.50.4
66.00.3
40%
68.71.1
63.23.5
652
65.21.1
66.40.8
67.20.6
Met.4
0%
74.90.3
45.11.5
47.91.2
52.20.9
55.50.6
59.70.6
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
Tabla 21
ENTRENAMIENTO Met.1
Test 0%
0%
94.630.05
88.11.4
83.71.4
81.40.9
81.70.6
5% 93.6440.01
94.630.02
93.730.02
93.610.06
94.290.11
93.470.17
10% 93.530.02
94.610.03
93.660.06
93.770.05
94.530.02 93.8610.01
20% 93.530.03
94.640.04
93.760.06
93.830.06
94.580.02 93.8890.01
30% 93.460.04
94.520.03
93.590.02
93.640.05
94.510.03 93.8390.01
40% 93.470.03
94.540.05
93.630.05
93.660.07
94.490.03
93.830.04
Met.4
0%
---
---
---
---
---
---
Met.5
0%
---
---
---
---
---
---
- 310 -
Tabla 22
Test 0%
94.50.2
90.40.4
88.60.3
83.60.2
81.60.3
76.100.19
5%
94.21.1
92.90.6
91.20.3
87.00.5
86.20.4
82.70.9
10%
915
885
885
844
805
804
20%
96.20.7
94.20.6
93.530.16
90.60.2
88.650.14
86.980.17
30%
95.20.3
93.30.5
93.80.2
90.70.2
88.970.10
87.40.3
40%
93.30.8
91.60.4
91.90.3
89.70.4
87.80.3
87.50.4
Met.4
0%
---
---
---
---
---
---
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
Tabla 23
Test 0%
936
464
503
62.11.1
72.01.7
732
5%
87.91.9
92.80.7
90.30.5
86.20.2
81.10.8
74.51.2
10%
81.10.3
92.950.16
91.780.12
87.850.11
80.170.16
71.780.19
20%
85.40.7
763
83.71.2
89.530.18
83.070.08
76.40.3
30% 88.020.10
47.50.3
57.150.18
78.670.15
84.250.06
80.20.2
40%
93.00.4
36.60.3
41.70.6
57.21.0
75.60.5
80.030.11
Met.4
0%
---
---
---
---
---
---
Met.5
0%
---
---
---
---
---
---
ENTRENAMIENTO Met.1
0%
- 311 -
Test 40%
5%
59.40.2
57.61.4
57.960.16
55.640.09
53.600.16
50.530.15
10%
56.30.2
55.640.19
55.10.2
54.780.15
52.880.08
51.710.11
55.00.6
55.00.5
54.30.4
54.50.5
51.80.8
51.20.4
50.90
50.1720.006
20%
30%
POR 1
Test 0%
48.440.17
48.930.17
49.50.1
49.540.18
48.920.13
5%
---
57.61.3
57.20.2
54.600.14
53.080.16
51.130.15
10%
---
55.80.2
54.190.16
54.210.12
52.110.12
51.380.15
---
54.90.5
53.20.2
53.30.3
50.60.2
48.70.7
20%
30%
POR 2
40%
---
---
47.230.18
47.10.4
46.800.11
47.30.2
46.60.2
5%
---
513
50.70.3
43.00.3
37.60.5
34.40.8
10%
---
53.40.3
49.80.3
45.20.3
40.20.4
36.10.7
---
52.60.7
48.80.4
43.80.9
37.71.3
32.81.6
46.530
44.5670.017
41.70.4
39.30.5
36.20.6
20%
30%
POR 3
40%
---
---
5%
---
447
43.70.3
29.90.4
19.00.4
11.40.3
10%
---
51.020.17
44.90.3
36.10.4
26.20.7
18.70.6
---
51.31.0
46.30.8
39.01.8
312
252
20%
30%
POR 4
40%
---
46.360.04 44.8610.006
---
44.170.05
40.390.08
33.90.6
27.50.8
21.50.7
5%
---
264
26.90.2
18.00.2
10.90.3
6.210.19
10%
---
35.040.14
30.790.10
23.240.09
15.520.11
10.600.08
---
252
222
17.21.9
11.81.6
9.31.4
---
9.8890.007
7.70
4.830
2.50
1.60
---
7.080.02
5.230
3.210.02
20%
30%
40%
POR 5
40%
- 312 -
1.5170.017 0.7280.006
Test 0%
Test 40%
840
82.50
80.600.05
75.570.19
74.00.3
71.10.6
10%
82.530.13
80.930.10
79.980.10
74.920.14
74.30.3
73.60.2
840
82.100.03
81.430.05
75.850.16
75.50.2
72.00.2
84.30.4
82.00.4
80.90.4
73.900.19
74.00.3
71.20.2
40%
81.30.6
79.30.4
77.20.4
73.10.2
72.90.2
70.130.14
5%
---
81.220.08
75.00.2
66.750.17
56.20.3
46.90.2
10%
---
80.480.09
78.400.09
70.630.14
64.380.10
54.10.3
---
82.030.02
81.320.07
75.650.18
75.40.2
71.60.2
---
82.00.3
80.90.4
73.90.2
73.80.3
71.10.3
40%
---
79.30.4
77.30.4
72.930.14
73.40.3
70.30.2
5%
---
80.320.08
74.10.2
63.130.18
51.60.3
40.60.2
10%
---
80.450.10
78.000.09
68.700.18
61.730.10
50.30.2
75.50.2
75.30.2
71.60.2
20%
30%
20%
30%
POR 2
30%
POR 3
20%
POR 1
5%
---
82.0170.017 81.280.07
82.00.4
80.80.4
73.80.2
73.80.3
70.90.3
40%
---
79.10.5
77.00.4
72.50.3
72.40.2
69.10.4
5%
---
75.80
64.80
50.30
37.70
26.10
10%
---
73.970.07
64.280.08
49.530.06
37.230.04
25.970.04
50.40
36.400.06
26.800.04
20%
30%
POR 4
---
---
75.3830.017 65.520.06
75.90.3
66.470.10
51.120.13
38.50.3
28.50.2
40%
---
73.10.4
63.90.5
49.50.3
39.10.3
27.800.13
5%
---
72.30
60.770.13
45.600.13
32.330.04
22.300.06
10%
---
32.430.04
22.180.08
20%
30%
40%
POR 5
---
---
72.870.13
61.830.16
46.630.19
33.450.14
23.300.17
---
65.10.2
54.90.4
41.80.3
29.100.17
21.680.19
---
49.80.3
40.80.2
33.10.2
22.70.2
15.30.2
- 313 -
5%
77.00.8
73.30.4
73.280.19
67.10.3
62.81.1
522
10%
73.80.5
71.60.4
69.00.3
65.80.5
60.10.7
50.41.0
70.70.3
69.400.18
69.730.15
67.530.10
68.030.06
61.600.14
66.670
64.60
66.470.07
64.000.13
67.350.10
67.330.09
40%
66.670
64.60
66.40
63.80
67.20
67.20
5%
---
73.30.4
73.30.2
67.10.3
62.81.1
522
10%
---
71.60.4
68.90.3
65.80.5
60.10.7
50.41.0
---
69.400.18
69.730.15
67.550.11
68.080.07
61.600.13
---
64.60
66.470.07
64.000.13
67.350.10
67.330.09
40%
---
64.60
66.40
63.80
67.20
67.20
5%
---
73.20.4
73.30.2
67.00.3
62.71.1
522
10%
---
71.60.4
69.00.3
65.80.5
60.10.8
50.31.0
---
69.400.18
69.730.15
67.530.10
68.000.06
61.550.13
---
64.60
66.470.07
64.000.13
67.350.10
67.330.09
40%
---
64.60
66.40
63.80
67.20
67.20
5%
---
57.90.4
41.90.2
22.180.18
11.550.19
2.430.05
10%
---
59.30.6
45.80.3
29.270.12
17.730.19
6.40.2
---
64.20.3
61.70.4
47.950.16
38.00.4
21.10.4
---
64.550.03
66.280.07
62.90.6
64.71.6
623
40%
---
64.60
66.40
63.80
67.20
67.20
5%
---
57.90.4
41.90.2
22.200.19
11.530.19
2.450.05
10%
---
59.30.6
45.80.3
29.270.12
17.730.19
6.40.2
---
64.20.3
61.70.4
47.950.16
37.90.4
21.10.4
---
64.550.03
66.280.07
62.90.6
64.71.6
623
---
64.60
66.40
63.80
67.20
67.20
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 314 -
Test 40%
Test 0%
5%
580
60.950.08
10%
550
56.50
540
55.90
51.40
540
55.90
40%
540
5%
10%
55.970.06
Test 40%
51.60
52.80
53.20
51.40
51.60
52.80
53.20
55.90
51.40
51.60
52.80
53.20
---
60.950.08
55.970.06
---
56.50
---
55.90
51.40
---
55.90
40%
---
5%
10%
30%
POR 1
53.00.1
20%
51.8170.017 52.3170.017
51.60
52.80
53.20
51.40
51.60
52.80
53.20
55.90
51.40
51.60
52.80
53.20
---
60.950.08
55.970.06
---
56.50
---
55.90
51.40
---
55.90
40%
---
5%
10%
30%
POR 2
53.00.1
20%
51.8170.017 52.3170.017
51.60
52.80
53.20
51.40
51.60
52.80
53.20
55.90
51.40
51.60
52.80
53.20
---
48.670.11
35.820.08
22.250.09
13.820.13
6.730.02
---
53.780.09
43.400.14
35.60.2
26.90.2
21.20.2
---
55.90
51.40
51.60
52.80
53.20
---
55.90
51.40
51.60
52.80
53.20
40%
---
55.90
51.40
51.60
52.80
53.20
5%
---
48.670.11
35.820.08
22.250.09
13.800.12
6.730.02
10%
---
53.780.09
43.430.15
35.70.2
26.90.2
21.30.2
---
55.90
51.40
51.60
52.80
53.20
---
55.90
51.40
51.60
52.80
53.20
---
55.90
51.40
51.60
52.80
53.20
30%
20%
30%
40%
POR 4
20%
POR 5
30%
POR 3
53.00.1
20%
51.8170.017 52.3170.017
- 315 -
5%
85.80.2
85.980.11
82.990.02
82.490.11
80.130.09
76.10.2
10%
87.90.4
87.50.2
83.80.2
84.020.05
80.920.04
78.480.06
880
87.950
85.150
84.10
81.650
78.850
880
87.850
85.30
85.250
82.30
79.10
40%
880
87.350
83.30
80.950
77.250
73.250
5%
---
85.970.11
82.980.03
82.500.11
80.090.09
76.10.2
10%
---
87.50.2
83.80.2
84.020.05
80.920.05
78.490.05
---
87.950
85.150
84.10
81.650
78.850
---
87.850
85.30
85.250
82.30
79.10
40%
---
87.350
83.30
80.950
77.250
73.250
5%
---
85.970.11
82.970.02
82.490.11
80.090.09
76.10.2
10%
---
87.50.2
83.80.2
84.020.05
80.900.05
78.460.07
---
87.950
85.150
84.10
81.650
78.850
---
87.850
85.30
85.250
82.30
79.10
40%
---
87.350
83.30
80.950
77.250
73.250
5%
---
80.450.17
71.280.15
58.480.11
45.050.13
32.080.15
10%
---
83.340.19
74.570.10
63.230.10
50.850.06
39.780.07
---
84.450
78.20
69.90
60.150
52.40
---
84.450
78.20
69.90
60.150
52.40
40%
---
84.450
78.20
69.90
60.150
52.40
5%
---
80.450.17
71.280.15
58.470.11
45.020.14
32.070.16
10%
---
83.340.19
74.580.10
63.240.09
50.850.06
39.790.07
---
84.450
78.20
69.90
61.150
52.40
---
84.450
78.20
69.90
60.150
52.40
---
84.450
78.20
69.90
60.150
52.40
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 316 -
Test 40%
5%
73.610.09
71.90.2
67.60.2
60.530.13
54.80.2
45.80.4
10%
73.130.17
71.40.3
67.100.17
60.850.07
54.960.16
46.020.15
693
672
632
56.31.7
50.61.5
42.21.2
70.20.2
66.80.3
63.20.5
55.80.6
49.30.6
41.00.4
40%
662
62.71.6
59.01.7
52.61.4
46.61.3
39.70.9
5%
---
71.740.19
67.60.2
59.810.15
52.410.14
44.90.5
10%
---
71.000.15
67.930.18
60.60.3
53.70.2
47.710.14
---
662
612
53.71.8
46.31.6
40.21.4
---
66.20.2
62.00.6
53.20.9
46.00.8
39.01.2
40%
---
62.11.7
57.61.7
50.91.5
43.21.5
39.21.1
5%
---
69.70.3
63.20.4
52.10.4
42.30.7
32.20.3
10%
---
69.150.19
64.00.2
53.70.2
44.60.2
35.40.3
---
632
562
43.51.3
32.81.1
23.50.8
---
62.70.2
55.30.6
41.50.8
30.30.9
20.90.9
40%
---
58.61.6
51.11.5
39.41.2
28.91.2
22.01.1
5%
---
62.90.2
49.620.17
30.90.4
17.20.3
8.740.16
10%
---
62.90.3
51.080.16
33.030.16
18.770.15
10.130.11
---
58.61.9
46.91.7
30.21.1
17.60.5
9.80.4
---
58.70.3
47.90.5
30.40.8
17.90.6
10.20.4
40%
---
55.31.6
45.31.4
29.80.6
17.60.6
10.60.3
5%
---
51.20.9
40.30.6
23.20.5
12.10.5
6.60.3
10%
---
51.00.5
40.80.4
23.70.4
12.40.3
6.540.13
---
22.31.4
17.41.3
10.30.8
5.10.4
2.90.3
---
10.41.1
8.10.9
4.30.5
2.40.3
1.280.14
---
0 0
0 0
0 0
0 0
0 0
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 317 -
Test 40%
5%
72.130.14
68.780.12
62.840.19
58.910.11
53.600.16
45.60.2
10%
72.350.08
69.230.16
62.940.08
58.380.13
52.850.16
45.660.11
702
662
62.01.7
57.21.3
51.21.2
44.61.1
67.61.5
63.71.4
59.51.2
54.40.7
49.90.6
41.50.7
40%
62.51.7
58.65
54.01.6
49.81.3
44.01.3
35.50.9
5%
---
68.940.07
64.20.4
59.080.11
51.50.3
43.70.2
10%
---
69.60.2
64.760.13
59.850.09
54.10.3
46.330.14
---
66.21.9
62.91.3
55.51.0
47.91.5
41.41.0
---
63.11.6
59.91.2
51.81.0
45.40.9
38.30.8
40%
---
58.01.3
52.81.2
46.30.7
40.30.7
35.30.6
5%
---
66.580.09
59.20.2
51.70.2
42.00.3
32.30.3
10%
---
67.110.14
59.230.09
51.950.12
43.60.3
34.10.2
---
63.51.9
56.61.5
45.31.2
35.61.6
25.91.3
---
59.51.4
52.31.1
40.10.9
31.31.0
20.90.7
40%
---
54.61.5
46.11.3
35.31.1
26.61.1
17.60.9
5%
---
58.660.12
44.660.06
25.320.19
12.680.16
5.350.07
10%
---
60.380.13
48.210.15
30.270.14
17.230.19
9.030.13
---
57.91.8
46.71.3
29.30.9
17.60.5
10.00.4
---
55.41.3
44.30.9
27.80.4
17.10.3
9.530.14
40%
---
51.41.5
41.01.4
27.41.0
17.31.0
9.40.6
5%
---
49.30.4
36.10.4
19.730.14
9.20.3
3.810.13
10%
---
42.560.15
31.90.3
17.630.17
9.220.14
4.520.07
---
24.71.1
19.11.0
11.30.4
6.90.4
3.430.19
---
202
14.91.5
9.20.9
5.30.5
2.60.3
---
0 0
0 0
0 0
0 0
0 0
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 318 -
Test 40%
Test 0%
Test 40%
81.250
78.670.18
75.80.2
70.20.3
65.20.2
58.41.0
10%
78.60.5
76.60.5
73.30.5
68.70.3
64.20.2
57.30.9
72.10.3
70.50.3
67.90.3
64.10.3
60.90.3
54.10.3
66.10.3
65.70.3
62.570.09
60.850.13
58.050.14
52.350.11
40%
61.70.3
62.10.3
59.40.3
57.00.3
55.00.2
50.80.2
5%
---
78.230.06
73.870.13
64.70.2
58.00.3
49.80.3
10%
---
76.10.4
71.80.5
64.40.3
57.980.19
50.400.11
---
70.680.10
67.80.2
61.20.7
58.50.8
52.81.1
---
66.10.3
62.620.18
57.00.3
56.20.2
54.400.16
40%
---
62.30.2
58.670.19
54.070.14
53.520.12
52.550.10
5%
---
76.880.06
71.40.2
60.270.12
51.30.3
42.20.2
10%
---
75.20.4
69.60.4
60.350.19
52.300.17
43.150.08
---
69.30.4
64.90.9
56.91.8
522
443
---
64.10.3
58.600.14
50.550.17
44.720.15
37.900.11
40%
---
60.40.2
54.700.14
47.430.11
41.90.2
35.870.12
5%
---
74.900.12
66.40.3
51.40.4
40.50.5
30.50.7
10%
---
74.40.4
67.60.4
56.10.2
47.40.4
38.30.2
---
68.50.3
63.10.2
52.80.3
46.20.5
37.40.7
---
63.60.3
57.680.12
47.60.3
41.70.2
33.50.5
40%
---
60.20.3
54.200.16
46.50.4
40.70.3
34.40.5
5%
---
69.500.19
61.20.2
47.50.6
35.60.8
26.90.8
10%
---
69.40.2
63.270.08
51.650.09
42.880.18
34.70.5
---
61.71.1
55.21.3
43.71.4
35.81.6
28.61.3
---
28.70.3
25.530.18
20.70.2
16.120.12
15.030.13
---
15.90.5
14.90.6
13.20.5
10.70.4
10.70.4
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
5%
- 319 -
Test 40%
5%
81.50.3
82.20.3
80.110.08
76.230.14
74.120.10
69.730.10
10%
82.40.4
83.20.3
82.430.14
78.10.3
76.080.07
73.90.2
81.20.2
81.920.18
82.530.19
78.430.10
76.480.10
73.30.2
82.20.3
84.080.16
80.40.4
78.350.14
75.70.3
73.70.3
40%
78.160
79.500.06
78.030.10
75.870.11
73.100.11
73.050.16
5%
---
82.10.3
80.030.07
76.270.13
74.180.08
69.730.10
10%
---
83.20.3
82.430.14
78.00.3
76.080.07
73.850.19
---
81.920.18
82.520.19
78.430.10
76.500.11
73.30.2
---
84.100.15
80.40.4
78.350.14
75.70.3
73.70.3
40%
---
79.500.06
78.030.10
75.850.11
73.100.11
73.070.16
5%
---
82.10.3
80.030.07
76.230.14
74.100.12
69.730.10
10%
---
83.20.3
82.430.14
78.00.3
76.050.06
73.80.2
---
81.920.18
82.520.19
78.420.10
76.480.10
73.30.2
---
84.080.16
80.40.4
78.350.14
75.70.3
73.70.3
40%
---
79.500.06
78.030.10
75.850.11
73.100.11
73.050.16
5%
---
75.40.2
64.470.11
46.40.3
24.180.19
16.30.2
10%
---
77.90.3
69.280.16
54.200.10
33.150.04
24.370.18
---
77.120.14
71.080.20
57.330.18
41.10.3
32.520.18
---
79.650.13
70.70.2
59.420.13
46.70.3
37.30.3
40%
---
75.850.17
68.070.03
57.780.10
45.50.3
37.90.5
5%
---
75.40.2
64.480.11
46.40.3
24.180.19
16.30.2
10%
---
77.90.3
69.270.15
54.220.10
33.130.06
24.380.18
---
77.120.14
71.100.19
57.330.18
41.10.3
32.500.17
---
79.650.13
70.70.2
59.420.13
46.70.3
37.30.3
---
75.850.17
68.070.03
57.780.10
45.50.3
37.90.5
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 320 -
5%
89.50.4
86.00.3
81.80.3
68.70.3
61.30.5
513
10%
88.60.3
84.80.3
81.30.4
70.40.4
63.60.2
53.60.3
72.01.2
70.70.9
68.10.8
59.50.6
56.50.6
48.60.4
693
683
663
582
54.41.7
46.81.2
40%
592
602
58.51.8
53.71.5
51.81.1
45.81.0
5%
---
85.580.18
78.10.5
66.51.1
53.71.5
413
10%
---
85.80.3
79.90.3
71.10.4
62.40.7
50.40.8
---
71.90.9
68.00.7
62.30.5
56.90.7
49.71.1
---
673
632
54.71.8
46.61.4
40.91.4
40%
---
552
49.21.7
42.01.6
34.51.3
32.01.1
5%
---
81.50.2
71.20.6
52.90.9
40.21.3
26.71.7
10%
---
81.390.18
72.60.2
57.70.3
46.70.4
33.90.6
---
66.90.7
59.70.6
48.00.7
40.41.0
29.61.0
---
633
552
40.41.4
30.60.9
21.70.8
40%
---
51.91.8
43.81.6
32.01.4
22.70.9
15.60.6
5%
---
71.00.3
53.20.3
26.60.2
11.990.13
3.700.15
10%
---
73.90.4
57.70.4
32.70.3
17.630.19
6.790.13
---
63.40.7
51.90.4
33.50.3
21.00.3
10.20.3
---
593
482
29.01.6
18.01.1
8.60.6
40%
---
49.81.7
39.21.5
24.51.4
14.71.0
7.60.9
5%
---
62.60.6
45.70.5
24.40.4
11.730.18
4.130.13
10%
---
59.00.7
45.60.7
26.20.5
14.20.2
5.700.16
---
43.340.12
35.930.17
22.80.3
14.050.19
6.50.2
---
24.10.3
19.50.2
10.780.15
6.850.18
2.870.09
---
10.01.6
6.41.2
3.60.9
2.00.5
0.80.2
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 321 -
Test 40%
Test 0%
5%
20%
30%
99.3890.011 98.010.10
POR 1
10%
40%
97.310.17
93.20.2
87.60.4
81.10.6
98.670.17
97.660.11
97.110.19
94.20.2
90.20.2
84.30.5
96.390.06
95.590.11
94.340.09
93.20.3
90.30.6
86.90.8
89.90.9
89.40.7
88.70.6
85.70.5
84.10.5
82.20.3
98.010.10
97.310.17
93.20.2
87.60.4
81.10.6
10%
---
97.660.11
97.110.19
94.20.2
90.20.2
84.20.5
---
95.590.11
94.340.09
93.20.3
90.30.6
86.90.8
---
89.40.7
88.70.6
85.70.5
84.10.5
82.20.3
20%
30%
POR 2
5%
---
5%
---
98.010.10
97.310.17
93.20.2
87.60.4
81.10.6
10%
---
97.660.11
97.110.19
94.20.2
90.20.2
84.20.5
---
95.590.11
94.340.09
93.20.3
90.30.6
86.90.8
---
89.40.7
88.70.6
85.70.5
84.10.5
82.20.3
20%
30%
POR 3
40%
---
5%
---
94.10.3
86.70.5
64.00.8
39.90.8
19.40.7
10%
---
93.980.10
88.10.3
68.60.3
46.90.3
26.40.4
---
90.40.3
84.00.6
70.70.6
56.60.5
42.70.6
---
85.60.7
81.70.7
70.680.19
60.780.19
50.81.1
40%
---
80.660.03
5%
---
94.10.3
86.70.5
64.00.8
39.90.8
19.40.7
10%
---
93.980.10
88.10.3
68.60.3
46.90.3
26.40.4
---
90.40.3
84.00.6
70.70.6
56.60.5
42.70.6
---
85.60.7
81.70.7
70.680.19
60.780.19
50.81.1
---
80.660.03
30%
20%
30%
40%
POR 5
20%
POR 4
40%
- 322 -
51.110.10
51.110.10
Test 40%
5%
790
67.350
10%
69.50.4
69.70.4
68.40.3
66.10.4
65.20.2
61.80.3
81.01.3
80.51.1
77.61.0
73.70.6
69.60.7
65.20.7
790
79.050
76.450
74.150
70.350
67.350
40%
790
79.260.03
76.740.04
74.380.14
70.330.05
67.450.14
5%
---
10%
---
69.70.4
68.30.3
66.10.3
65.30.2
61.90.2
---
80.51.1
77.61.0
73.70.6
69.60.7
65.20.6
---
79.050
76.450
74.150
70.350
67.350
40%
---
79.260.03
76.730.04
74.380.14
70.330.05
67.450.09
5%
---
10%
---
69.70.4
68.30.3
66.00.3
65.30.2
61.80.3
---
80.51.1
77.61.0
73.70.6
69.50.7
65.20.7
---
79.050
76.450
74.150
70.350
67.350
40%
---
79.260.03
76.740.04
74.380.14
70.330.05
67.450.09
5%
---
77.30.5
71.650
64.350
54.70
46.750
10%
---
66.30.3
61.60.2
53.30.2
45.10.2
36.30.3
---
78.00.8
72.60.7
63.60.4
53.80.5
44.51.2
---
76.750
71.650
64.350
54.70
46.750
40%
---
76.750
71.650
64.350
54.70
46.750
5%
---
77.30.5
71.650
64.350
54.70
46.750
10%
---
66.30.3
61.60.2
53.40.2
45.10.3
36.30.3
---
78.00.8
72.60.7
63.60.4
53.80.5
44.51.2
---
76.750
71.650
64.350
54.70
46.750
---
76.750
71.650
64.350
54.70
46.750
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 323 -
67.350
67.350
Test 0%
Test 40%
680
69.250
68.450
69.60
67.60
67.40
10%
680
69.250
68.450
69.60
67.60
67.40
680
69.250
68.450
69.60
67.60
67.40
680
69.250
68.450
69.60
67.60
67.40
40%
680
69.250
68.450
69.60
67.60
67.40
5%
---
69.250
68.450
69.60
67.60
67.40
10%
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
40%
---
69.250
68.450
69.60
67.60
67.40
5%
---
69.250
68.450
69.60
67.60
67.40
10%
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
40%
---
69.250
68.450
69.60
67.60
67.40
5%
---
69.250
68.230.10
68.90.3
66.70.4
65.40.9
10%
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
40%
---
69.250
68.450
69.60
67.60
67.40
5%
---
69.250
68.230.10
68.90.3
66.70.4
65.40.9
10%
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
5%
- 324 -
Test 40%
5%
81.70.4
82.50.3
82.20.3
79.30.3
79.400.19
77.720.06
10%
89.70.6
89.10.4
88.00.4
84.90.4
83.80.2
80.630.14
90.70.6
89.70.4
88.60.5
85.20.6
84.00.4
80.60.4
79.80.5
81.20.4
80.50.4
77.90.3
78.20.2
76.80.3
40%
890
87.950
86.750
82.950
81.30
77.750
5%
---
82.50.3
82.20.3
79.30.3
79.420.18
77.730.06
10%
---
89.10.4
88.00.4
84.90.4
83.80.2
80.630.14
---
89.70.4
88.60.5
85.20.6
84.00.5
80.60.4
---
81.20.4
80.50.4
77.90.3
78.20.2
76.80.3
40%
---
87.950
86.750
82.950
81.30
77.750
5%
---
82.50.3
82.20.3
79.30.3
79.400.19
77.730.06
10%
---
89.10.4
88.00.4
84.90.4
83.80.2
80.630.14
---
89.70.4
88.60.5
85.20.6
84.00.5
80.60.4
---
81.20.4
80.50.4
77.90.3
78.20.2
76.80.3
40%
---
87.950
86.750
82.950
81.30
77.750
5%
---
75.90.3
69.70.2
56.580.16
45.000.14
35.480.15
10%
---
83.20.5
76.90.3
64.00.5
52.50.5
43.30.6
---
84.00.5
78.10.4
66.20.4
55.70.6
46.60.7
---
74.70.4
69.240.19
57.150.10
47.00.4
38.80.8
40%
---
82.90
77.650
66.10
560
48.050
5%
---
75.90.3
69.70.2
56.580.16
45.000.14
35.480.15
10%
---
83.20.5
76.90.3
63.90.5
52.50.5
43.30.7
---
84.00.5
78.10.4
66.20.4
55.70.6
46.60.7
---
74.70.4
69.240.19
57.150.10
47.00.4
38.80.8
---
82.90
77.650
66.10
560
48.050
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 325 -
5%
92.560.08
93.440.10
92.060.13
89.20.2
84.91.6
786
10%
90.660.09
90.990.11
90.710.14
89.200.07
87.40.3
83.51.7
87.980.17
70.31.1
20%
30%
POR 1
Test 0%
Test 40%
83.730
84.130
84.250.04
84.970.14
87.010.13
40%
83.730
83.730
84.130
84.030
83.570
84.340.07
5%
---
93.440.10
92.060.13
89.10.2
84.91.6
786
10%
---
91.000.11
90.720.15
89.200.07
87.40.3
83.51.7
87.990.17
70.41.1
20%
30%
POR 2
83.730
---
84.130
84.250
84.970.14
87.010.13
40%
---
83.730
84.130
84.030
83.570
84.350.07
5%
---
93.440.10
92.060.13
89.10.2
84.91.6
786
10%
---
90.990.11
90.710.14
89.200.07
87.40.3
83.41.7
87.980.17
70.31.1
20%
30%
POR 3
---
---
84.130
84.250
84.970.14
87.010.13
40%
---
83.730
84.130
84.030
83.570
84.340.07
5%
---
86.930.16
72.80.4
34.71.2
8.20.8
0.960.16
10%
---
87.610.08
82.360.07
63.40.3
32.90.9
9.30.6
---
63.70.3
26.30.6
20%
30%
POR 4
---
83.730
84.130
40%
---
83.730
84.130
84.030
83.40
82.760.03
5%
---
86.940.16
72.80.4
34.741.19
8.20.8
0.960.16
10%
---
87.610.08
82.370.08
63.40.3
32.90.9
9.30.6
---
63.70.3
26.30.6
20%
30%
40%
POR 5
---
---
83.730
84.130
---
83.730
84.130
- 326 -
83.40
82.760.03
5%
71.60.6
69.00.4
72.10.3
70.70.4
68.31.0
67.81.1
10%
73.60
71.0830.011
72.80.4
70.70.5
70.40.5
68.90.7
65.800.14
65.570.15
65.850.08
65.830.03
67.060.06
66.680.05
65.20
65.20
65.20
65.40
66.40
65.950
40%
65.20
65.20
65.20
65.40
66.40
65.950
5%
---
69.00.4
72.10.3
70.70.4
68.31.0
67.81.1
10%
---
71.0830.011
72.80.4
70.70.5
70.40.5
68.90.7
---
65.570.15
65.850.08
65.830.03
67.050.06
66.680.05
---
65.20
65.20
65.40
66.40
65.950
40%
---
65.20
65.20
65.40
66.40
65.950
5%
---
69.00.4
72.10.3
70.70.4
68.31.0
67.81.1
10%
---
71.0830.011
72.80.4
70.70.5
70.40.5
68.90.7
---
65.570.15
65.850.08
65.830.03
67.050.06
66.680.05
---
65.20
65.20
65.40
66.40
65.950
40%
---
65.20
65.20
65.40
66.40
65.950
5%
---
61.10.5
55.80.5
40.70.6
347
18.10.9
10%
---
66.70.2
64.40.2
53.30.4
44.20.6
35.10.5
---
64.060.13
62.110.05
56.780.02
49.620.10
39.820.12
---
65.20
65.20
65.40
66.40
65.950
40%
---
65.20
65.20
65.40
66.40
65.950
5%
---
61.10.5
55.80.5
40.70.6
347
18.10.9
10%
---
66.70.2
64.40.2
53.30.4
44.20.6
35.10.5
---
64.060.13
62.120.05
56.780.02
49.640.10
39.830.11
---
65.20
65.20
65.40
66.40
65.950
---
65.20
65.20
65.40
66.40
65.950
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 327 -
Test 40%
Test 0%
Test 40%
93.870
94.5280.006
93.60
93.2720.006
94.370
93.570
10%
93.270
940
93.30
93.030
94.230
93.470
93.270
940
93.30
93.030
94.230
93.470
93.270
940
93.30
93.030
94.230
93.470
40%
93.270
940
93.30
93.030
94.230
93.470
5%
---
94.470
93.60
93.2060.006
94.370
93.530
10%
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
40%
---
940
93.30
93.030
94.230
93.470
5%
---
94.470
93.60
93.2060.006
94.370
93.530
10%
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
40%
---
940
93.30
93.030
94.230
93.470
5%
---
94.10
92.40
87.140.04
79.960.04
66.280.10
10%
---
940
93.230
92.7780.011 92.510.04
88.340.08
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
40%
---
940
93.30
93.030
94.230
93.470
5%
---
93.7720
75.640.04
61.010.04
10%
---
940
83.070.07
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
5%
91.4610.006 84.480.02
- 328 -
5%
95.30.2
95.620.03
94.800.05
92.300.16
89.770.08
84.80.3
10%
94.70.2
94.970.11
93.800.10
92.730.05
91.430.15
87.90.2
95.30.3
94.730.15
93.880.05
91.650.03
90.880.06
89.570.13
91.830.17
92.320.10
92.070.03
90.420.13
91.050.12
88.620.14
40%
930
920
5%
---
95.620.03
94.820.06
92.320.16
89.770.08
84.80.3
10%
---
94.970.11
93.800.10
92.700.05
91.400.15
87.90.2
---
94.730.15
93.880.05
91.630.02
90.870.05
89.550.13
---
92.320.10
92.070.03
90.430.12
91.050.12
88.630.13
40%
---
920
5%
---
95.620.03
94.800.05
92.300.16
89.770.08
84.80.3
10%
---
94.970.11
93.800.10
92.700.05
91.400.15
87.90.2
---
94.730.15
93.880.05
91.630.02
90.870.05
89.550.13
---
92.320.10
92.070.03
90.420.13
91.050.12
88.620.14
40%
---
920
5%
---
93.270.04
87.050.12
74.820.19
56.70.3
39.40.3
10%
---
92.700.13
87.750.10
77.850.07
64.730.15
47.480.14
---
93.90.2
88.770.16
79.830.09
70.270.10
54.630.13
---
89.900.07
86.230.06
78.10.3
70.180.18
57.370.19
40%
---
88.90
85.650.10
75.00.2
64.270.09
53.950.12
5%
---
93.280.03
87.070.12
74.850.18
56.70.3
39.40.3
10%
---
92.700.13
87.750.10
77.850.06
64.730.15
47.500.15
---
93.90.2
88.780.16
79.850.09
70.250.09
54.620.13
---
89.880.08
86.230.06
78.10.3
70.180.18
57.370.19
---
88.90
85.650.10
75.00.2
64.270.09
53.950.12
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
Test 40%
- 329 -
Test 0%
5%
99.3750
10%
96.8750
97.480.05
93.230.19
95.200.07
91.020.08
96.770.06
96.570.12
94.430.12
90.40.2
90.850.13
90.080.16
89.00.2
86.70.4
82.10.4
89.00.3
87.70.3
86.90.3
87.350.16
85.20.2
80.20.2
40%
84.31.0
83.20.6
80.70.9
81.00.9
79.20.7
75.60.6
5%
---
97.700.05
95.200.07
91.020.08
10%
---
97.450.03
96.780.07
96.570.12
94.450.13
90.50.2
---
90.870.12
90.100.17
89.10.2
86.60.4
82.20.4
---
87.70.3
86.90.3
87.320.16
85.180.17
80.150.19
40%
---
83.20.6
80.70.9
81.00.9
79.20.7
75.60.6
5%
---
97.700.05
95.200.07
91.020.08
10%
---
97.450.03
96.770.06
96.570.12
94.430.12
90.40.2
---
90.850.13
90.080.16
89.00.2
86.60.4
82.10.4
---
87.70.3
86.90.3
87.320.16
85.150.18
80.10.2
40%
---
83.20.6
80.70.9
81.00.9
79.20.7
75.60.6
5%
---
87.300.09
72.980.13
43.080.07
22.450.02
11.600.04
10%
---
88.870.04
77.150.09
49.670.14
27.370.14
15.380.17
---
85.150.12
79.70.4
70.20.6
57.50.9
47.91.3
---
83.90.3
77.90.3
65.80.9
53.21.1
40.11.2
40%
---
78.40.8
73.01.0
65.71.2
57.41.1
49.81.0
5%
---
87.300.09
72.980.13
43.070.06
22.430.02
11.600.04
10%
---
88.870.04
77.150.09
49.670.14
27.330.14
15.330.16
---
85.170.11
79.70.4
70.10.6
57.50.9
47.91.3
---
83.80.3
77.90.3
65.70.9
53.31.1
40.11.2
---
78.40.8
73.01.0
65.71.2
57.41.1
49.81.0
20%
30%
20%
30%
20%
30%
40%
POR 2
POR 3
30%
POR 4
20%
POR 5
30%
POR 1
97.700.05
20%
98.2830.017 98.380.03
Test 40%
98.2830.017 98.380.03
98.2830.017 98.380.03
- 330 -
5%
55.00.3
54.90.3
53.740.07
53.90.3
51.30.4
49.70.2
10%
404
404
404
404
393
383
34.550
34.530
34.370
34.90
34.40
32.970
34.550
34.530
34.370
34.90
34.40
32.970
40%
32.950
33.170
33.070
32.90
340
33.430
5%
---
55.40.2
53.530.19
53.400.06
50.50.2
48.50.5
10%
---
403
403
403
383
373
---
34.530
34.370
34.90
34.40
32.970
---
34.530
34.370
34.90
34.40
32.970
40%
---
33.170
33.070
32.90
340
33.430
5%
---
53.20.2
49.340.10
45.030.05
39.10.4
33.80.9
10%
---
403
403
393
372
352
---
34.530
34.370
34.90
34.40
32.970
---
34.530
34.370
34.90
34.40
32.970
40%
---
33.170
33.070
32.90
340
33.430
5%
---
52.10.4
47.80.2
42.20.8
34.70.9
28.70.8
10%
---
393
383
36.91.3
33.90.9
31.21.6
---
34.530
34.370
34.90
34.40
32.970
---
34.530
34.370
34.90
34.40
32.970
40%
---
33.170
33.070
32.90
340
33.430
5%
---
292
26.71.9
20.71.5
15.71.2
12.00.7
10%
---
4 3
4 2
2.61.8
1.61.2
1.20.9
---
0 0
0 0
0 0
0 0
0 0
---
0 0
0 0
0 0
0 0
0 0
---
0 0
0 0
0 0
0 0
0 0
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 331 -
Test 40%
Test 0%
5%
840
82.50
10%
82.930.17
81.270.12
79.950.16
74.80.5
72.60.3
440
40%
72.520.13
74.90.3
73.60.3
71.10.5
71.60.4
66.170.16
66.20.4
62.90.5
450
44.50
45.20
45.40
47.40
440
450
44.50
45.20
45.40
47.40
5%
---
82.10
79.60
71.40
64.10
52.70
10%
---
81.280.12
80.10.2
74.90.2
73.80.2
71.60.4
---
72.60.4
71.30.4
65.90.2
64.80.3
61.80.3
---
450
44.50
45.20
45.40
47.40
40%
---
450
44.50
45.20
45.4
47.40
5%
---
82.10
79.30
69.40
61.20
49.10
10%
---
81.270.12
79.770.18
74.20.2
72.40.2
69.00.4
---
72.10.4
70.80.4
65.00.2
64.20.3
60.90.3
---
450
44.50
45.20
45.40
47.40
40%
---
450
44.50
45.20
45.4
47.40
5%
---
75.80
64.80
50.30
37.70
26.10
10%
---
74.170.08
64.600.11
49.470.08
37.180.05
25.500.08
---
69.00.3
61.20.3
49.450.11
38.330.09
29.950.08
---
450
44.50
45.20
45.40
47.40
40%
---
450
44.50
45.20
45.4
47.40
5%
---
73.130.06
62.020.07
47.250.05
34.520.10
23.920.03
10%
---
72.570.02
61.220.08
46.620.05
33.270.08
22.950.15
---
40.50.9
33.80.8
26.60.8
18.40.4
14.70.5
---
450
44.50
45.20
45.40
47.40
---
0 0
0 0
0 0
0 0
0 0
20%
30%
20%
30%
20%
30%
40%
POR 2
POR 3
30%
POR 4
20%
POR 5
30%
POR 1
74.470.15
20%
80.6830.017 75.780.12
Test 40%
- 332 -
5%
72.80.2
69.80.2
70.00.2
68.30.2
70.10.3
69.10.3
10%
66.670
64.60
66.40
63.80
67.20
67.20
66.670
64.60
66.40
63.80
67.20
67.20
66.670
64.60
66.40
63.80
67.20
67.20
40%
66.670
64.60
66.40
63.80
67.20
67.20
5%
---
69.80.2
70.00.2
68.30.2
70.20.3
69.10.3
10%
---
64.60
66.40
63.80
67.20
67.20
---
64.60
66.40
63.80
67.20
67.20
---
64.60
66.40
63.80
67.20
67.20
40%
---
64.60
66.40
63.80
67.20
67.20
5%
---
69.80.2
70.00.2
68.30.2
70.10.3
69.10.3
10%
---
64.60
66.40
63.80
67.20
67.20
---
64.60
66.40
63.80
67.20
67.20
---
64.60
66.40
63.80
67.20
67.20
40%
---
64.60
66.40
63.80
67.20
67.20
5%
---
63.30.3
57.10.4
44.10.8
30.91.1
17.71.3
10%
---
64.60
66.40
63.80
67.20
67.20
---
64.60
66.40
63.80
67.20
67.20
---
64.60
66.40
63.80
67.20
67.20
40%
---
64.60
66.40
63.80
67.20
67.20
5%
---
63.30.3
57.10.3
44.10.8
30.91.1
17.71.3
10%
---
64.60
66.40
63.80
67.20
67.20
---
64.60
66.40
63.80
67.20
67.20
---
64.60
66.40
63.80
67.20
67.20
---
64.60
66.40
63.80
67.20
67.20
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 333 -
Test 40%
Test 0%
Test 40%
540
55.90
51.40
51.60
52.80
53.20
10%
540
55.90
51.40
51.60
52.80
53.20
540
55.90
51.40
51.60
52.80
53.20
540
55.90
51.40
51.60
52.80
53.20
40%
540
55.90
51.40
51.60
52.80
53.20
5%
---
55.90
51.40
51.60
52.80
53.20
10%
---
55.90
51.40
51.60
52.80
53.20
---
55.90
51.40
51.60
52.80
53.20
---
55.90
51.40
51.60
52.80
53.20
40%
---
55.90
51.40
51.60
52.80
53.20
5%
---
55.90
51.40
51.60
52.80
53.20
10%
---
55.90
51.40
51.60
52.80
53.20
---
55.90
51.40
51.60
52.80
53.20
---
55.90
51.40
51.60
52.80
53.20
40%
---
55.90
51.40
51.60
52.80
53.20
5%
---
55.90
51.40
51.60
52.80
53.20
10%
---
55.90
51.40
51.60
52.80
53.20
---
55.90
51.40
51.60
52.80
53.20
---
55.90
51.40
51.60
52.80
53.20
40%
---
55.90
51.40
51.60
52.80
53.20
5%
---
55.90
51.40
51.60
52.80
53.20
10%
---
55.90
51.40
51.60
52.80
53.20
---
55.90
51.40
51.60
52.80
53.20
---
55.90
51.40
51.60
52.80
53.20
---
55.90
51.40
51.60
52.80
53.20
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
5%
- 334 -
5%
84.830.17
85.240.11
82.680.11
83.830.19
80.90.3
77.70.8
10%
88.20.4
86.80.2
83.70.2
80.830.13
76.720.05
71.920.09
880
87.950
85.150
84.10
81.650
78.850
880
87.350
83.30
80.950
77.250
73.250
40%
550
55.550
54.90
53.90
54.050
52.20
5%
---
85.230.11
82.690.10
83.840.19
80.90.3
77.70.8
10%
---
86.80.2
83.740.19
80.830.13
76.720.05
71.920.09
---
87.950
85.150
84.10
81.650
60.150
---
87.350
83.30
80.950
77.250
73.250
40%
---
55.550
54.90
53.90
54.050
52.20
5%
---
84.50.7
82.680.11
83.830.19
80.80.3
77.70.8
10%
---
86.80.2
83.740.19
80.830.13
76.720.05
71.920.09
---
87.950
85.150
84.10
81.650
60.150
---
87.350
83.30
80.950
77.250
73.250
40%
---
55.550
54.90
53.90
54.050
52.20
5%
---
80.470.09
71.950.07
61.20.4
48.50.8
37.51.4
10%
---
82.70.2
75.820.19
63.960.10
52.330.16
41.360.10
---
84.450
78.20
69.70
60.150
52.40
---
84.450
78.20
69.90
60.150
52.40
40%
---
55.550
54.90
53.90
54.050
52.20
5%
---
80.70.4
71.960.08
61.20.4
48.50.8
37.51.4
10%
---
82.70.2
75.820.19
63.960.10
52.330.16
41.360.10
---
84.450
78.20
69.90
60.150
52.40
---
84.450
78.20
69.90
60.150
52.40
---
55.550
54.90
53.90
54.050
52.20
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 335 -
Test 40%
5%
73.400.15
71.40.5
67.00.3
59.750.16
53.80.4
45.10.3
10%
6010
579
559
498
437
375
9.10
9.30
8.80
8.70
9.550
9.30
110
12.050
110
10.750
11.250
11.850
40%
9.10
9.350
8.80
8.70
9.550
9.30
5%
---
71.00.3
66.70.3
58.90.5
51.40.6
44.20.9
10%
---
579
549
487
406
345
---
9.350
8.80
8.70
9.550
9.30
---
12.050
110
10.750
11.250
11.850
40%
---
9.350
8.80
8.70
9.550
9.30
5%
---
68.60.5
61.90.4
50.70.4
40.70.7
31.20.9
10%
---
559
498
396
294
222
---
9.350
8.80
8.70
9.550
9.30
---
12.050
110
10.750
11.250
11.850
40%
---
9.350
8.80
8.70
9.550
9.30
5%
---
63.10.5
50.50.4
32.60.4
18.80.4
9.80.2
10%
---
518
426
294
17.81.4
11.550.19
---
9.350
8.80
8.70
9.550
9.30
---
12.050
110
10.750
11.250
11.850
40%
---
9.350
8.80
8.70
9.550
9.30
5%
---
41.90.6
33.50.7
20.10.5
10.20.4
6.00.3
10%
---
194
153
9 2
4.681.04
2.80.7
---
0 0
0 0
0 0
0 0
0 0
---
0 0
0 0
0 0
0 0
0 0
---
0 0
0 0
0 0
0 0
0 0
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 336 -
Test 40%
Test 40%
5%
72.650.07
69.580.13
63.290.09
59.580.09
53.30.2
45.420.16
10%
3011
2810
279
259
237
206
10.20
100
10.650
11.150
10.20
10.70
9.80
10.050
9.10
10.650
10.30
8.650
40%
9.80
10.050
9.10
10.650
10.30
8.650
5%
---
69.630.10
64.870.04
59.950.17
51.60.2
44.30.3
10%
---
2810
289
269
247
216
---
100
10.650
11.150
10.20
10.70
---
10.050
9.10
10.650
10.30
8.650
40%
---
10.050
9.10
10.650
10.30
8.650
5%
---
67.180.10
59.250.07
50.930.16
40.70.3
31.40.2
10%
---
2710
258
217
185
153
---
100
10.650
11.150
10.20
10.70
---
10.050
9.10
10.650
10.30
8.650
40%
---
10.050
9.10
10.650
10.30
8.650
5%
---
60.550.14
48.030.14
30.630.08
17.350.11
8.820.05
10%
---
259
227
164
12.31.9
9.50.9
---
100
10.650
11.150
10.20
10.70
---
10.050
9.10
10.650
10.30
8.650
40%
---
10.050
9.10
10.650
10.30
8.650
5%
---
46.370.18
34.40.2
19.060.12
10.350.12
4.780.07
10%
---
7 5
6 4
3 2
1.91.4
1.10.9
---
0 0
0 0
0 0
0 0
0 0
---
0 0
0 0
0 0
0 0
0 0
---
0 0
0 0
0 0
0 0
0 0
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 337 -
Test 40%
5%
79.20.7
77.00.5
73.90.5
69.60.4
64.830.17
56.980.16
10%
71.60.7
70.20.7
67.50.6
64.00.5
61.10.4
54.20.4
525
515
505
484
474
443
28.1250
28.20
28.80
29.70
290
30.70
40%
28.1250
28.20
28.80
29.70
290
30.70
5%
---
76.50.5
71.80.5
63.50.2
57.40.3
49.30.5
10%
---
70.40.5
67.40.4
61.00.2
59.21.0
54.51.5
---
522
515
474
474
484
---
28.20
28.80
29.70
290
30.70
40%
---
28.20
28.80
29.70
290
30.70
5%
---
75.70.4
69.90.4
60.270.10
52.750.08
43.330.13
10%
---
68.80.8
63.90.7
55.30.9
49.71.2
42.01.4
---
505
484
413
382
34.31.0
---
28.20
28.80
29.70
290
30.70
40%
---
28.20
28.80
29.70
290
30.70
5%
---
74.80.4
68.70.5
56.60.4
47.10.5
38.10.4
10%
---
68.50.8
63.20.7
54.00.8
47.40.7
39.20.6
---
505
484
413
382
34.20.9
---
28.20
28.80
29.70
290
30.70
40%
---
28.20
28.80
29.70
290
30.70
5%
---
69.50.3
63.60.4
51.80.8
42.71.3
35.01.6
10%
---
545
484
394
323
272
---
184
184
163
133
143
---
0 0
0 0
0 0
0 0
0 0
---
0 0
0 0
0 0
0 0
0 0
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 338 -
Test 0%
Test 40%
83.90
83.970.03
82.480.06
78.480.09
75.570.11
70.880.14
10%
82.00.5
82.70.3
81.90.3
78.40.2
76.800.16
75.330.13
77.40.2
76.620.16
78.980.17
75.520.10
71.530.19
68.580.14
54.0230
54.40
52.80
54.20
53.30
52.40
40%
45.980
45.60
47.20
45.80
46.70
47.60
5%
---
83.970.03
82.500.07
78.470.10
75.530.12
70.920.15
10%
---
82.70.3
81.90.3
78.40.2
76.780.17
75.320.13
---
76.620.16
76.980.17
75.520.10
71.530.19
68.570.13
---
54.40
52.80
54.20
53.30
52.40
40%
---
45.60
47.20
45.80
46.70
47.60
5%
---
83.970.03
82.480.06
78.470.10
75.530.12
70.880.14
10%
---
82.70.3
81.90.3
78.40.2
76.780.17
75.320.13
---
76.620.16
76.980.17
75.520.10
71.530.19
68.570.13
---
54.40
52.80
54.20
53.30
52.40
40%
---
45.60
47.20
45.80
46.70
47.60
5%
---
79.420.09
68.430.12
53.10.3
31.90.2
23.60.2
10%
---
78.40.3
70.90.4
57.60.5
40.90.5
30.60.4
---
72.80.3
67.40.2
57.50.3
45.10.7
38.00.6
---
54.40
52.80
54.20
53.30
52.40
40%
---
45.60
47.20
45.80
46.70
47.60
5%
---
79.420.09
70.11.8
53.00.3
31.90.2
23.60.2
10%
---
78.40.3
70.90.4
57.70.5
40.90.5
30.60.4
---
72.80.3
67.40.2
57.50.3
45.10.7
38.00.6
---
54.40
52.80
54.20
53.30
52.40
---
45.60
47.20
45.80
46.70
47.60
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
5%
- 339 -
5%
79.11.4
76.51.1
71.40.9
59.40.4
53.70.5
43.40.4
10%
4011
4010
3910
358
337
285
12.50
13.40
13.450
12.550
12.650
12.60
14.180
14.450
14.80
13.750
13.70
130
40%
14.50
15.850
14.50
14.750
13.60
15.550
5%
---
77.71.1
72.60.9
63.40.7
51.70.6
39.80.6
10%
---
4010
399
347
315
253
---
13.40
13.450
12.550
12.650
12.60
---
14.450
14.80
13.750
13.70
130
40%
---
15.850
14.50
14.750
13.60
15.550
5%
---
72.30.9
63.60.8
46.70.7
34.51.0
23.60.8
10%
---
3910
368
296
243
16.01.7
---
13.40
13.450
12.550
12.650
12.60
---
14.450
14.80
13.750
13.70
130
40%
---
15.850
14.50
14.750
13.60
15.550
5%
---
68.40.8
55.70.5
31.40.2
17.20.4
7.20.3
10%
---
389
358
275
212
12.50.7
---
13.40
13.450
12.550
12.650
12.60
---
14.450
14.80
13.750
13.70
130
40%
---
15.850
14.50
14.750
13.60
15.550
5%
---
50.80.3
41.570.14
24.840.14
13.480.13
6.090.06
10%
---
1811
159
106
7 4
2.91.8
---
0 0
0 0
0 0
0 0
0 0
---
0 0
0 0
0 0
0 0
0 0
---
0 0
0 0
0 0
0 0
0 0
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 340 -
Test 40%
Test 0%
98.40.2
97.590.09
96.40.2
93.50.3
89.70.4
83.30.4
10%
96.10.3
95.760.16
94.470.13
92.980.15
89.000.15
80.20.3
94.61.7
94.01.6
93.01.3
92.11.1
89.11.0
85.90.6
62.270
61.30
62.10
60.50
61.670
63.070
40%
62.270
61.30
62.10
60.50
61.670
63.070
5%
---
97.590.09
96.40.2
93.50.3
89.60.4
83.30.4
10%
---
95.760.16
94.470.13
92.970.14
88.990.15
80.20.3
---
94.01.6
93.01.3
92.11.1
89.11.0
85.90.6
---
61.30
62.10
60.50
61.670
63.070
40%
---
61.30
62.10
60.50
61.670
63.070
5%
---
97.590.09
96.40.2
93.50.3
89.60.4
83.30.4
10%
---
95.760.16
94.470.13
92.970.14
88.990.15
80.20.3
---
94.01.6
93.01.3
92.11.1
89.11.0
85.90.6
---
61.30
62.10
60.50
61.670
63.070
40%
---
61.30
62.10
60.50
61.670
63.070
5%
---
94.10.3
86.880.19
63.90.4
40.60.6
21.00.8
10%
---
92.530.12
87.270.16
70.160.09
50.060.12
30.80.2
---
89.31.7
83.51.4
69.41.1
54.30.6
39.50.6
---
61.30
62.10
60.50
61.670
63.070
40%
---
61.30
62.10
60.50
61.670
63.070
5%
---
94.10.3
86.880.19
63.90.4
40.60.6
21.00.8
10%
---
92.520.11
87.260.16
70.140.09
50.040.12
30.80.2
---
89.31.7
83.41.4
69.81.1
54.30.6
39.50.6
---
61.30
62.10
60.50
61.670
63.070
---
61.30
62.10
60.50
61.670
63.070
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
5%
- 341 -
Test 0%
Test 40%
790
79.050
76.450
74.150
70.350
67.350
10%
75.31.8
75.51.7
73.51.5
71.81.3
69.10.6
66.10.7
490
49.350
49.10
49.80
47.450
49.350
490
49.350
49.10
49.80
47.450
49.350
40%
490
49.350
49.10
49.80
47.450
49.350
5%
---
79.050
76.450
74.150
70.350
67.350
10%
---
75.51.7
73.51.5
71.81.3
69.10.6
66.10.7
---
49.350
49.10
49.80
47.450
49.350
---
49.350
49.10
49.80
47.450
49.350
40%
---
49.350
49.10
49.80
47.450
49.350
5%
---
79.050
76.450
74.150
70.350
67.350
10%
---
75.51.7
73.51.5
71.81.3
69.10.6
66.10.7
---
49.350
49.10
49.80
47.450
49.350
---
49.350
49.10
49.80
47.450
49.350
40%
---
49.350
49.10
49.80
47.450
49.350
5%
---
76.750
71.650
64.350
54.70
46.750
10%
---
72.71.9
67.81.9
60.51.8
51.51.5
43.01.7
---
49.350
49.10
49.80
47.450
49.350
---
49.350
49.10
49.80
47.450
49.350
40%
---
49.350
49.10
49.80
47.450
49.350
5%
---
76.750
71.650
64.350
54.70
46.750
10%
---
72.71.9
67.81.9
60.51.8
51.51.5
43.01.7
---
49.350
49.10
49.80
47.450
49.350
---
49.350
49.10
49.80
47.450
49.350
---
49.350
49.10
49.80
47.450
49.350
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
5%
- 342 -
Test 0%
Test 40%
680
69.250
68.450
69.60
67.60
67.40
10%
680
69.250
68.450
69.60
67.60
67.40
680
69.250
68.450
69.60
67.60
67.40
680
69.250
68.450
69.60
67.60
67.40
40%
680
69.250
68.450
69.60
67.60
67.40
5%
---
69.250
68.450
69.60
67.60
67.40
10%
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
40%
---
69.250
68.450
69.60
67.60
67.40
5%
---
69.250
68.450
69.60
67.60
67.40
10%
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
40%
---
69.250
68.450
69.60
67.60
67.40
5%
---
69.250
68.450
69.60
67.60
67.40
10%
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
40%
---
69.250
68.450
69.60
67.60
67.40
5%
---
69.250
68.450
69.60
67.60
67.40
10%
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
---
69.250
68.450
69.60
67.60
67.40
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
5%
- 343 -
Test 0%
Test 40%
790
80.550
80.150
77.50
78.20
770
10%
890
88.50
87.450
84.050
83.350
80.250
89.51.6
87.41.5
85.51.4
81.51.1
79.20.9
75.80.6
540
540
53.20
53.90
55.650
53.90
40%
540
540
53.20
53.90
55.650
53.90
5%
---
80.550
80.150
77.50
78.20
770
10%
---
88.50
87.450
84.050
83.350
80.250
---
87.41.5
85.51.4
81.51.1
79.20.9
75.80.6
---
540
53.20
53.90
55.650
53.90
40%
---
540
53.20
53.90
55.650
53.90
5%
---
80.550
80.150
77.50
78.20
770
10%
---
88.50
87.450
84.050
83.350
80.250
---
87.41.5
85.51.4
81.51.1
79.20.9
75.80.6
---
540
53.20
53.90
55.650
53.90
40%
---
540
53.20
53.90
55.650
53.90
5%
---
74.050
690
57.350
47.80
40.250
10%
---
82.850.03
77.570.05
66.180.05
55.60.2
47.30.5
---
83.71.2
78.80.7
68.40.3
59.30.3
51.10.7
---
540
53.20
53.90
55.650
53.90
40%
---
540
53.20
53.90
55.650
53.90
5%
---
74.050
690
57.350
47.80
40.250
10%
---
82.850.03
77.570.05
66.180.05
55.60.2
47.30.5
---
83.71.2
78.80.7
68.40.3
59.30.3
51.10.7
---
540
53.20
53.90
55.650
53.90
---
540
53.20
53.90
55.650
53.90
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
5%
- 344 -
Test 0%
5%
20%
90.5560.014 91.020.03
POR 1
10%
85.420.19
71.30.6
Test 40%
46.71.1
84.130
84.030
83.570
84.170
83.730
83.730
84.130
84.030
83.570
84.170
40%
83.730
83.730
84.130
84.030
83.570
84.170
5%
---
91.020.03
91.050.04
85.440.18
71.30.6
46.71.1
10%
---
30%
20%
POR 2
83.730
84.130
84.030
83.570
84.170
---
83.730
84.130
84.030
83.570
84.170
40%
---
83.730
84.130
84.030
83.570
84.170
5%
---
91.020.03
91.050.04
85.420.19
71.30.6
46.71.1
10%
---
30%
20%
POR 3
---
84.130
84.030
83.570
84.170
---
83.730
84.130
84.030
83.570
84.170
40%
---
83.730
84.130
84.030
83.570
84.170
5%
---
87.020.02
81.340.16
59.30.5
30.80.7
9.70.4
10%
---
72.60.3
62.60.4
30%
20%
POR 4
---
84.130
84.030
83.570
84.170
---
83.7330
84.130
84.030
83.570
84.170
40%
---
83.730
84.130
84.030
83.570
84.1670
5%
---
87.020.02
81.340.16
59.30.5
30.80.7
9.70.4
10%
---
72.70.3
62.60.4
30%
20%
30%
40%
POR 5
---
---
83.730
84.130
84.030
83.570
84.170
---
83.730
84.130
84.030
83.570
84.170
---
83.730
84.130
84.030
83.570
84.170
- 345 -
Test 0%
Test 40%
760
74.180.15
74.840.11
73.480.03
10%
65.20
65.20
65.20
65.40
66.40
65.950
65.20
65.20
65.20
65.40
66.40
65.950
65.20
65.20
65.20
65.40
66.40
65.950
40%
65.20
65.20
65.20
65.40
66.40
65.950
5%
---
74.180.15
74.840.11
73.480.03
10%
---
65.20
65.20
65.40
66.40
65.950
---
65.20
65.20
65.40
66.40
65.950
---
65.20
65.20
65.40
66.40
65.950
40%
---
65.20
65.20
65.40
66.40
65.950
5%
---
74.180.15
74.840.11
73.480.03
10%
---
65.20
65.20
65.40
66.40
65.950
---
65.20
65.20
65.40
66.40
65.950
---
65.20
65.20
65.40
66.40
65.950
40%
---
65.20
65.20
65.40
66.40
65.950
5%
---
69.850.13
66.600.06
57.960.07
48.520.05
40.840.10
10%
---
65.20
65.20
65.40
66.40
65.950
---
65.20
65.20
65.40
66.40
65.950
---
65.20
65.20
65.40
66.40
65.950
40%
---
65.20
65.20
65.40
66.40
65.950
5%
---
69.830.13
66.600.06
57.960.07
48.530.06
40.830.10
10%
---
65.20
65.20
65.40
66.40
65.950
---
65.20
65.20
65.40
66.40
65.950
---
65.20
65.20
65.40
66.40
65.950
---
65.20
65.20
65.40
66.40
65.950
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
5%
- 346 -
73.240.05 73.3000.013
73.240.05 73.3000.013
73.240.05 73.3000.013
Test 40%
5%
93.50.3
94.180.18
93.50.2
93.30.2
94.320.09
93.630.16
10%
93.270
940
93.30
93.030
94.230
93.470
93.270
940
93.30
93.030
94.230
93.470
93.270
940
93.30
93.030
94.230
93.470
40%
93.270
940
93.30
93.030
94.230
93.470
5%
---
94.170.17
93.50.2
93.210.18
94.310.08
93.540.07
10%
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
40%
---
940
93.30
93.030
94.230
93.470
5%
---
94.170.17
93.490.19
93.210.18
94.290.06
93.540.07
10%
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
40%
---
940
93.30
93.030
94.230
93.470
5%
---
94.130.13
93.270.03
92.50.6
92.71.5
913
10%
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
40%
---
940
93.30
93.030
94.230
93.470
5%
---
93.890.11
93.00.3
91.91.2
922
904
10%
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
---
940
93.30
93.030
94.230
93.470
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 347 -
Test 0%
Test 40%
95.250.05
89.750.13
84.720.14
91.90.2
88.80.2
91.270.02
90.120.08
86.420.11
950
10%
940
940
94.2830.017 93.030.02
20%
30%
POR 1
5%
94.000.05
92.320.04
92.430.02
91.150.04
87.830.08
86.400.04
81.730.06
40%
930
90.60
890
85.50
85.30
810
5%
---
95.250.05
94.000.05
92.320.04
89.730.12
84.720.14
10%
---
91.90.2
88.80.3
---
94.2830.017 93.030.02
91.270.02
90.080.09
86.420.09
20%
30%
POR 2
920
92.430.02
91.150.04
87.830.08
86.400.04
81.730.07
40%
---
90.60
890
85.50
85.30
810
5%
---
95.250.05
94.000.05
92.320.04
89.730.12
84.720.14
10%
---
91.90.2
88.80.3
---
94.2830.017 93.030.02
91.270.02
90.070.09
86.400.10
20%
30%
POR 3
---
92.430.02
91.150.04
87.830.08
86.400.04
81.720.07
40%
---
90.60
890
85.50
85.30
810
5%
---
93.480.06
88.150.04
78.130.05
62.50.3
47.20.3
10%
---
92.480.03
88.080.03
79.470.07
66.250.06
51.100.06
---
930
89.170.03
81.580.15
71.450.05
56.280.15
---
89.70
86.3830.017 78.000.06
70.900.05
57.620.07
40%
---
88.10
83.80
73.10
630
54.30
5%
---
93.480.06
88.150.04
78.130.05
62.50.3
47.20.3
10%
---
92.480.03
88.080.03
79.470.07
66.250.06
51.100.06
---
930
89.170.03
81.580.15
71.450.05
56.280.15
---
89.70
86.3830.017 78.000.06
70.880.06
57.620.07
---
88.10
630
54.30
30%
20%
30%
40%
POR 5
20%
POR 4
---
83.80
- 348 -
73.10
5%
98.130.16
97.930.10
97.980.05
96.580.12
93.30.3
87.80.5
10%
95.60.3
95.920.15
95.820.09
94.600.14
92.10.4
86.70.4
91.250
88.80
87.80
87.10
84.30
79.80
64.3750
64.60
650
64.50
65.10
63.10
40%
64.3750
64.60
650
64.50
65.10
63.10
5%
---
97.930.10
97.980.05
96.570.12
93.30.3
87.80.5
10%
---
95.920.15
95.820.09
94.600.14
92.20.4
86.70.4
---
88.80
87.80
87.10
84.30
79.80
---
64.60
650
64.50
65.10
63.10
40%
---
64.60
650
64.50
65.10
63.10
5%
---
97.930.10
97.980.05
96.570.12
93.30.3
87.80.5
10%
---
95.920.15
95.820.09
94.600.14
92.1 0.4
86.70.4
---
88.80
87.80
87.10
84.30
79.80
---
64.60
650
64.50
65.10
63.10
40%
---
64.60
650
64.50
65.10
63.10
5%
---
88.800.15
76.40.3
46.40.4
24.400.15
12.550.14
10%
---
90.40.2
82.700.12
61.200.17
39.70.3
23.50.3
---
84.80
81.20
73.70
65.40
570
---
64.60
650
64.50
65.10
63.10
40%
---
64.60
650
64.50
65.10
63.10
5%
---
88.800.15
76.40.3
46.40.4
24.400.15
12.550.14
10%
---
90.40.2
82.720.12
61.200.17
39.70.3
23.50.3
---
84.80
81.20
73.70
65.40
570
---
64.60
650
64.50
65.10
63.10
---
64.60
650
64.50
65.10
63.10
20%
30%
20%
30%
20%
30%
40%
POR 2
30%
POR 3
20%
POR 4
30%
POR 5
20%
POR 1
Test 0%
- 349 -
Test 40%
Ishibuchi
Hernndez
54.90.3
404
34.90
34.40
33.430
82.50
79.950.16
66.170.16
45.40
47.40
69.80.2
66.40
63.80
67.20
67.20
55.90
51.40
51.60
52.80
53.20
85.240.11
83.70.2
84.10
77.250
52.20
71.40.5
559
8.70
11.250
9.30
69.580.13
279
11.150
10.30
8.650
77.00.5
67.50.6
484
290
30.70
83.970.03
81.90.3
75.520.10
53.30
47.60
57.61.4
55.10.2
54.50.5
50.90
48.920.13
82.50
79.980.10
75.850.16
74.00.3
70.130.14
73.30.4
69.00.3
67.530.10
67.350.10
67.20
60.950.08
51.8170.017
51.60
52.80
53.20
85.980.11
83.80.2
84.10
82.30
73.250
71.90.2
67.100.17
56.31.7
49.30.6
39.70.9
68.780.12
62.940.08
57.21.3
49.90.6
35.50.
78.670.18
73.30.5
64.10.3
58.050.14
50.80.2
82.20.3
82.430.14
78.430.10
75.70.3
73.050.16
- 350 -
Categora
3
4
4
4
4
1
2
3
4
4
3
3
3
2
1
3
2
1
1
1
2
2
1
3
4
2
4
4
4
4
5
4
4
4
4
2
3
4
4
4
5
2
3
4
4
Ishibuchi
Hernndez
76.51.1
3910
12.550
13.70
15.550
97.590.09
94.470.13
92.11.1
61.670
63.070
79.050
73.51.5
49.80
47.450
49.350
69.250
68.450
69.60
67.60
67.40
80.550
87.450
81.51.1
55.650
53.90
91.020.03
86.1060.018
84.030
83.570
84.170
74.180.15
65.20
65.40
66.40
65.950
94.180.18
93.30
93.030
94.230
93.470
95.250.05
93.6170.017
91.270.02
86.400.04
810
97.930.10
95.820.09
87.10
65.10
63.10
86.00.3
81.30.4
59.50.6
54.41.7
45.81.0
98.010.10
97.110.19
93.20.3
84.10.5
82.9610.013
79.0670.017
68.40.3
73.70.6
70.350
67.450.09
69.250
68.450
69.60
67.60
67.40
82.50.3
88.00.4
85.20.6
78.20.2
77.750
93.440.10
90.710.14
86.980.09
84.970.14
84.340.07
69.00.4
72.80.4
65.830.03
66.40
65.950
94.5280.006
93.30
93.030
94.230
93.470
95.620.03
93.800.10
91.650.03
91.050.12
91.020.07
98.2830.017
96.770.06
89.00.2
85.20.2
75.60.6
- 351 -
Categora
3
4
4
4
4
2
3
2
4
4
2
6
4
4
4
1
1
1
1
1
2
2
3
4
4
3
3
3
2
2
6
3
2
1
1
2
1
1
1
1
2
2
2
3
4
2
2
2
4
4
Ishibuchi
Hernndez
55.40.2
403
34.90
34.40
33.430
82.10
80.10.2
65.90.2
45.40
47.40
69.80.2
66.40
63.80
67.20
67.20
55.90
51.40
51.60
52.80
53.20
85.230.11
83.740.19
84.10
77.250
52.20
71.00.3
549
8.70
11.250
9.30
69.630.10
289
11.150
10.30
8.650
76.50.5
67.40.4
474
290
30.70
83.970.03
81.90.3
75.520.10
53.30
47.60
57.61.3
54.190.16
53.30.3
50.7610.006
46.60.2
81.220.08
78.400.09
75.650.18
73.80.3
70.30.2
73.30.4
68.90.3
67.550.11
67.350.10
67.20
60.950.08
51.8170.017
51.60
52.80
53.20
85.970.11
83.80.2
84.10
82.30
73.250
71.740.19
67.930.18
53.71.8
46.00.8
39.21.1
68.940.07
64.760.13
55.51.0
45.40.9
35.30.6
78.230.06
71.80.5
61.20.7
56.20.2
52.550.10
82.10.3
82.430.14
78.430.10
75.70.3
73.070.16
- 352 -
Categora
3
4
4
4
4
5
5
3
4
4
3
3
3
2
1
3
2
1
1
1
2
2
1
3
4
2
4
4
4
4
5
4
4
4
4
2
3
4
4
4
5
2
3
4
4
Ishibuchi
Hernndez
77.71.1
399
12.550
13.70
15.550
97.590.09
94.470.13
92.11.1
61.670
63.070
79.050
73.51.5
49.80
47.450
49.350
69.250
68.450
69.60
67.60
67.40
80.550
87.450
81.51.1
55.650
53.90
91.020.03
86.1060.018
84.030
83.570
84.170
74.180.15
65.20
65.40
66.40
65.950
94.170.17
93.30
93.030
94.230
93.470
95.250.05
93.6170.017
91.270.02
86.400.04
810
97.930.10
95.820.09
87.10
65.10
63.10
85.580.18
79.90.3
62.30.5
46.61.4
32.01.1
98.010.10
97.110.19
93.20.3
84.10.5
82.9610.013
79.0670.017
68.30.3
73.70.6
70.350
67.450.09
69.250
68.450
69.60
67.60
67.40
82.50.3
88.00.4
85.20.6
78.20.2
77.750
93.440.10
90.720.15
86.980.09
84.970.14
84.350.07
69.00.4
72.80.4
65.830.03
66.40
65.950
94.470
93.30
93.030
94.230
93.470
95.620.03
93.800.10
91.630.02
91.050.12
91.020.07
98.2830.017
96.780.07
89.10.2
85.180.17
75.60.6
- 353 -
Categora
3
4
4
4
4
2
3
2
4
4
2
6
4
4
4
1
1
1
1
1
2
2
3
4
4
3
3
3
2
2
6
3
2
1
1
2
1
1
1
1
2
2
2
3
4
2
2
2
4
4
Ishibuchi
Hernndez
53.20.2
403
34.90
34.40
33.430
82.10
79.770.18
65.00.2
45.40
47.40
69.80.2
66.40
63.80
67.20
67.20
55.90
51.40
51.60
52.80
53.20
84.50.7
83.740.19
84.10
77.250
52.20
68.60.5
498
8.70
11.250
9.30
67.180.10
258
11.150
10.30
8.650
75.70.4
63.90.7
413
290
30.70
83.970.03
81.90.3
75.520.10
53.30
47.60
513
49.80.3
43.80.9
46.530
36.20.6
80.320.08
78.000.09
75.50.2
73.80.3
69.10.4
73.20.4
69.00.3
67.530.10
67.350.10
67.20
60.950.08
51.8170.017
51.60
52.80
53.20
85.970.11
83.80.2
84.10
82.30
73.250
69.70.3
64.00.2
43.51.3
30.30.9
22.01.1
66.580.09
59.230.09
45.31.2
31.31.0
17.60.9
76.880.06
69.60.4
56.91.8
44.720.15
35.870.12
82.10.3
82.430.14
78.420.10
75.70.3
73.050.16
- 354 -
Categora
6
3
3
4
3
5
5
4
4
4
3
3
3
2
1
3
2
1
1
1
2
2
1
3
4
2
4
4
4
4
5
4
4
4
3
2
3
4
4
3
5
2
3
4
4
Ishibuchi
Hernndez
72.30.9
368
12.550
13.70
15.550
97.590.09
94.470.13
92.11.1
61.670
63.070
79.050
73.51.5
49.80
47.450
49.350
69.250
68.450
69.60
67.60
67.40
80.550
87.450
81.51.1
55.650
53.90
91.020.03
86.1060.018
84.030
83.570
84.170
74.180.15
65.20
65.40
66.40
65.950
94.170.17
93.30
93.030
94.230
93.470
95.250.05
93.6170.017
91.270.02
86.400.04
810
97.930.10
95.820.09
87.10
65.10
63.10
81.50.2
72.60.2
48.00.7
30.60.9
15.60.6
98.010.10
97.110.19
93.20.3
84.10.5
82.9610.013
79.0670.017
68.30.3
73.70.6
70.350
67.450.09
69.250
68.450
69.60
67.60
67.40
82.50.3
88.00.4
85.20.6
78.20.2
77.750
93.440.10
90.710.14
86.980.09
84.970.14
84.340.07
69.00.4
72.80.4
65.830.03
66.40
65.950
94.470
93.30
93.030
94.230
93.470
95.620.03
93.800.10
91.630.02
91.050.12
91.020.07
98.2830.017
96.770.06
89.00.2
85.150.18
75.60.6
- 355 -
Categora
3
4
4
4
2
2
3
2
4
4
2
6
4
4
4
1
1
1
1
1
2
2
3
4
4
3
3
3
2
2
6
3
2
1
1
2
1
1
1
1
2
2
2
3
4
2
2
2
4
4
Ishibuchi
Hernndez
52.10.4
383
34.90
34.40
33.430
75.80
64.600.11
49.450.11
45.40
47.40
63.30.3
66.40
63.80
67.20
67.20
55.90
51.40
51.60
52.80
53.20
80.470.09
75.820.19
69.70
60.150
52.20
63.10.5
426
8.70
11.250
9.30
60.550.14
227
11.150
10.30
8.650
74.80.4
63.20.7
413
290
30.70
79.420.09
70.90.4
57.50.3
53.30
47.60
447
44.90.3
39.01.8
29.9610.006
21.50.7
75.80
64.280.08
50.40
38.50.3
27.800.13
57.90.4
45.80.3
47.950.16
64.71.6
67.20
48.670.11
43.400.14
51.60
52.80
53.20
80.450.17
74.570.10
69.90
60.150
52.40
62.90.2
51.080.16
30.21.1
17.90.6
10.60.3
58.660.12
48.210.15
29.30.9
17.10.3
9.40.6
74.900.12
67.60.4
52.80.3
41.70.2
34.40.5
75.40.2
69.280.16
57.330.18
46.70.3
37.90.5
- 356 -
Categora
6
3
3
6
7
1
5
2
6
7
6
7
7
6
1
6
6
1
1
1
5
5
2
1
2
5
3
4
3
2
5
4
4
3
2
2
3
4
4
3
6
5
5
6
6
Ishibuchi
Hernndez
68.40.8
358
12.550
13.70
15.550
94.10.3
87.270.16
69.41.1
61.670
63.070
76.750
67.81.9
49.80
47.450
49.350
69.250
68.450
69.60
67.60
67.40
74.050
77.570.05
68.40.3
55.650
53.90
87.020.02
84.5060.016
84.030
83.570
84.170
69.850.13
65.20
65.40
66.40
65.950
94.130.13
93.30
93.030
94.230
93.470
93.480.06
88.080.03
81.580.15
70.900.05
54.30
88.800.15
82.700.12
73.70
65.10
63.10
71.00.3
57.70.4
33.50.3
18.01.1
7.60.9
94.10.3
88.10.3
70.70.6
60.780.19
51.110.10
77.30.5
61.60.2
63.60.4
54.70
46.750
69.250
68.450
69.60
67.60
67.40
75.90.3
76.90.3
66.20.4
47.00.4
48.050
86.930.16
82.360.07
81.540.05
82.2780.019
82.760.03
61.10.5
64.40.2
56.780.02
66.40
65.950
94.10
93.230
93.030
94.230
93.470
93.270.04
87.750.10
79.830.09
70.180.18
53.950.12
87.300.09
77.150.09
70.20.6
53.21.1
49.81.0
- 357 -
Categora
3
4
4
3
6
1
2
2
5
7
2
6
4
3
6
1
1
1
1
1
2
5
6
6
6
5
6
6
5
5
6
5
6
1
1
5
5
1
1
1
5
5
5
5
5
5
6
6
7
7
Ishibuchi
Hernndez
292
4 2
0 0
0 0
0 0
73.130.06
61.220.08
26.60.8
45.40
0 0
63.30.3
66.40
63.80
67.20
67.20
55.90
51.40
51.60
52.80
53.20
80.70.4
75.820.19
69.90
60.150
52.20
41.90.6
153
0 0
0 0
0 0
46.370.18
6 4
0 0
0 0
0 0
69.50.3
484
163
0 0
0 0
79.420.09
70.90.4
57.50.3
53.30
47.60
264
30.790.10
17.21.9
2.50
0.7280.006
72.30
60.3830.017
46.630.19
29.100.17
15.30.2
57.90.4
45.80.3
47.950.16
64.71.6
67.20
48.670.11
43.430.15
51.60
52.80
53.20
80.450.17
74.580.10
69.90
60.150
52.40
51.20.9
40.80.4
10.30.8
2.40.3
0 0
49.30.4
31.90.3
11.30.4
5.30.5
0 0
69.500.19
63.270.08
43.71.4
16.120.12
10.70.4
75.40.2
69.270.15
57.330.18
46.70.3
37.90.5
- 358 -
Categora
6
4
4
3
2
5
5
4
7
4
6
7
7
6
1
6
6
1
1
1
5
5
1
1
2
3
4
4
3
1
3
4
4
3
1
1
4
4
4
4
6
5
5
6
6
Ishibuchi
Hernndez
50.80.3
159
0 0
0 0
0 0
94.10.3
87.260.16
69.81.1
61.670
63.070
76.750
67.81.9
49.80
47.450
49.350
69.250
68.450
69.60
67.60
67.40
74.050
77.570.05
68.40.3
55.650
53.90
87.020.02
84.5000.019
84.030
83.570
84.170
69.830.13
65.20
65.40
66.40
65.950
93.890.11
93.30
93.030
94.230
93.470
93.480.06
88.080.03
81.580.15
70.880.06
54.30
88.800.15
82.720.12
73.70
65.10
63.10
62.60.6
45.60.7
22.80.3
6.850.18
0.80.2
94.10.3
88.10.3
70.70.6
60.780.19
51.110.10
77.30.5
61.60.2
63.60.4
54.70
46.750
69.250
68.450
69.60
67.60
67.40
75.90.3
76.90.3
66.20.4
47.00.4
48.050
86.940.16
82.370.08
81.540.05
82.2780.019
82.760.03
61.10.5
64.40.2
56.780.02
66.40
65.950
93.7720
93.0720.006
93.030
94.230
93.470
93.280.03
87.750.10
79.850.09
70.180.18
53.950.12
87.300.09
77.150.09
70.10.6
53.31.1
49.81.0
- 359 -
Categora
4
4
4
3
2
1
2
2
5
7
2
6
4
3
6
1
1
1
1
1
2
5
6
6
6
5
6
6
5
5
6
6
6
1
1
5
5
1
1
1
5
5
5
5
5
5
6
6
7
7
- 360 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 361 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 362 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 363 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 364 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 365 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 366 -
- 367 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 368 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 369 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 370 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 371 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 372 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 373 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 374 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 375 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 376 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
- 377 -
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU
- 378 -
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU
- 379 -
- 380 -
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU
- 381 -
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU
Mtodo
BL2
TEKA
CIB
TEKE
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
YOU
- 382 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
1
2
513
532
513
532
523
532
58.70.8 552
523
532
513
532
58.70.8 532
513
532
523
542
513
532
513
532
513
532
513
532
523
532
513
532
513
532
482
502
523
502
------512 56.71.3
512 56.71.3
512
532
512
532
512
532
512
532
513
552
513
482
513
552
------58.70.8 532
58.70.8 57.20.9
3
483
483
483
57.91.0
542
503
523
483
512
483
60.10.4
503
483
523
483
483
543
512
---483
483
483
483
483
483
57.91.0
492
57.91.0
---58.70.8
542
4
51.31.8
51.31.8
52.71.8
57.50.8
553
51.31.8
542
51.31.8
513
532
573
532
532
542
57.20.7
532
492
50.91.9
---522
522
522
522
522
522
57.60.7
532
512
---482
542
- 383 -
5
532
532
532
58.10.7
502
532
542
532
532
522
522
522
53.71.5
522
532
522
462
493
---542
542
542
542
532
542
50.01.9
522
533
---493
54.71.9
6
503
503
503
53.91.8
503
503
522
503
503
522
522
522
503
57.40.8
503
57.40.8
453
473
---55.40.3
55.40.3
55.40.3
55.40.3
55.40.3
55.40.3
552
523
58.90.6
---512
512
7
55.30.5
55.30.5
492
503
55.30.5
55.30.5
512
55.30.5
492
55.51.7
55.51.7
55.51.7
55.30.5
55.30.5
492
55.51.7
442
493
---55.40.4
55.40.4
55.40.4
55.40.4
453
453
522
51.21.9
493
---512
462
8
50.11.7
50.01.7
50.01.7
463
50.01.7
50.11.7
52.01.9
463
51.01.8
463
463
463
463
50.11.7
51.01.8
463
462
51.01.8
---463
463
463
463
463
463
463
413
51.01.8
---443
443
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
1
482
482
492
533
503
492
503
503
503
492
492
492
482
533
492
493
533
493
---493
493
493
493
493
493
493
493
493
---473
533
2
493
493
543
533
492
543
583
45.91.6
492
543
543
543
543
503
543
563
533
503
---543
543
543
543
543
543
543
543
543
---563
563
- 384 -
3
482
492
492
502
502
492
553
513
513
513
492
513
502
533
533
492
542
502
---513
513
513
513
513
513
513
513
513
---543
543
4
47.80.5
533
533
552
542
533
533
533
533
533
533
533
47.80.5
542
533
533
47.80.5
553
---542
542
542
542
542
542
542
542
542
---47.80.5
553
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
1
65.11.0
65.11.0
65.11.0
---65.11.0
65.11.0
64.10.7
65.11.0
65.11.0
65.11.0
65.11.0
65.11.0
65.11.0
65.11.0
64.91.1
64.91.1
63.20.6
65.11.0
65.11.0
65.50.7
65.50.7
65.50.7
65.50.7
65.50.7
65.50.7
63.70.3
64.91.0
---63.91.0
65.70.9
----
2
62.90.3
62.90.3
66.40.9
---66.40.8
62.90.3
64.00.8
62.90.3
64.40.9
63.90.5
63.90.5
63.90.5
62.90.3
62.90.3
64.40.7
64.30.7
71.70.9
64.80.8
65.60.8
72.90.4
72.90.4
72.90.4
72.90.4
72.90.4
72.90.4
66.21.0
66.21.0
---64.00.7
66.30.7
----
3
64.60.6
64.60.6
64.90.8
---65.00.6
64.60.6
64.01.0
63.10.8
65.10.6
64.90.4
65.50.6
64.90.4
63.10.8
64.60.6
64.00.6
65.70.7
700.7
64.61.1
64.90.8
72.00.8
72.00.8
72.00.8
72.00.8
72.00.8
72.00.8
65.30.9
65.30.9
---64.40.7
66.20.8
----
4
63.81.1
63.61.3
66.90.9
---66.00.8
63.81.1
62.50.7
65.60.7
66.00.8
65.60.6
63.30.6
65.60.6
63.61.3
63.81.1
65.60.7
63.61.3
71.50.3
65.10.8
66.00.8
74.10.5
74.10.5
74.10.5
74.10.5
74.10.5
74.10.5
62.11.1
62.50.7
---63.60.7
65.40.4
----
- 385 -
5
65.11.1
64.60.4
64.50.5
---66.61.0
65.11.1
65.40.6
65.11.1
66.11.0
65.20.9
64.70.7
65.20.9
65.01.1
65.11.1
65.01.1
65.11.1
68.50.9
64.40.7
66.31.0
72.10.9
72.10.9
72.10.9
72.10.9
72.10.9
72.10.9
64.00.8
65.21.0
---64.00.8
66.00.6
----
6
64.80.8
64.80.8
64.10.7
---67.00.9
64.80.8
66.00.9
64.80.8
64.51.1
64.51.0
64.51.0
64.51.0
64.80.8
64.80.8
64.80.5
64.80.5
68.40.8
64.50.3
64.40.8
72.40.8
72.40.8
72.40.8
72.40.8
72.40.8
72.40.8
65.30.9
65.21.0
---63.70.6
64.90.7
----
7
63.81.1
63.81.1
64.00.7
---67.50.9
63.81.1
66.00.6
63.41.2
64.80.6
64.00.8
65.20.6
64.00.8
65.20.6
62.30.4
66.21.2
63.81.1
70.91.1
63.90.6
66.30.7
73.81.0
73.81.0
73.81.0
73.81.0
73.81.0
73.81.0
64.30.7
66.41.4
---63.70.4
63.01.2
----
8
64.10.7
64.10.5
66.80.9
---63.30.7
64.10.7
64.50.7
64.10.5
66.80.9
63.31.2
63.31.2
63.31.2
63.31.2
63.31.2
64.60.6
64.50.8
70.80.9
63.30.5
65.30.4
74.71.1
74.71.1
74.71.1
74.71.1
74.71.1
74.71.1
66.40.6
65.40.8
---67.91.6
62.80.6
----
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
9
65.10.8
65.10.8
65.10.5
---66.41.2
65.10.8
65.51.1
65.10.8
66.60.7
65.61.0
62.50.7
65.61.0
62.50.7
61.80.7
65.40.6
64.60.7
68.70.8
65.60.7
66.20.8
73.30.9
73.30.9
73.30.9
73.30.9
73.30.9
73.30.9
65.51.1
66.10.6
---68.91.1
64.10.6
----
10
65.30.9
65.30.9
65.90.7
---64.00.7
67.41.0
62.81.1
68.00.6
64.60.8
66.01.2
66.01.2
66.01.2
66.01.2
63.60.9
66.00.8
62.60.5
67.00.8
64.30.6
67.41.2
74.00.8
74.00.8
74.00.8
74.00.8
74.00.8
74.00.8
67.61.4
66.40.6
---67.20.9
63.70.7
----
11
68.01.2
68.01.2
66.00.6
---65.50.7
67.00.9
67.71.1
66.11.0
63.30.6
62.10.6
62.10.6
62.10.6
64.70.4
62.10.6
64.10.7
66.01.1
68.71.1
64.30.6
66.00.9
71.40.9
71.40.9
71.40.9
71.40.9
71.40.9
71.40.9
66.20.7
65.20.7
---67.51.0
60.31.4
----
12
65.41.0
65.41.0
64.71.0
---66.70.7
65.70.6
65.41.1
65.41.0
63.60.5
63.10.3
63.10.3
63.10.3
64.30.6
64.90.4
64.71.0
61.30.7
67.11.3
66.31.2
64.80.9
76.20.9
76.20.9
76.20.9
76.20.9
76.20.9
76.20.9
66.71.0
65.10.7
---69.81.5
60.30.9
----
- 386 -
13
64.71.0
64.71.0
67.10.9
---66.30.7
67.10.8
64.61.1
64.10.7
65.61.1
64.70.7
64.70.7
64.70.7
64.41.0
67.00.5
67.10.9
66.91.1
68.30.8
64.30.7
67.61.2
76.70.5
76.70.5
76.70.5
76.70.5
76.70.5
76.70.5
70.51.2
64.50.5
---67.71.6
61.30.9
----
14
64.30.7
64.30.7
66.20.9
---66.20.5
64.91.2
67.11.0
64.20.7
65.10.8
66.60.5
64.40.9
66.60.5
64.40.9
65.50.8
64.30.8
64.40.8
68.20.5
64.90.6
65.50.9
75.90.9
75.90.9
75.90.9
75.90.9
75.90.9
75.90.9
69.90.7
63.30.4
---67.61.1
62.01.0
----
15
65.70.4
65.70.4
65.30.7
---66.80.9
65.50.8
67.01.0
63.90.7
64.11.1
65.41.1
65.41.1
65.41.1
65.20.9
65.41.1
65.30.7
63.10.6
67.81.4
63.10.3
65.20.4
75.51.0
75.51.0
75.51.0
75.51.0
75.51.0
75.51.0
66.90.4
64.10.7
---65.31.3
63.21.1
----
16
66.00.8
66.00.4
66.10.7
---66.90.7
67.01.2
63.30.8
67.20.8
65.50.9
66.81.0
65.61.5
66.81.0
67.20.8
65.61.5
66.10.7
64.40.4
69.21.4
62.40.5
65.20.5
76.61.2
76.61.2
76.61.2
76.61.2
76.61.2
76.61.2
66.90.6
66.80.6
---68.70.7
60.31.3
----
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
17
67.10.5
66.30.9
66.80.5
---66.31.0
68.31.0
66.71.0
66.30.8
64.90.8
65.90.4
66.21.1
65.90.4
66.21.1
66.21.1
66.80.5
65.20.6
69.41.1
63.40.6
66.70.6
76.10.8
76.10.8
76.10.8
76.10.8
76.10.8
76.10.8
66.31.2
68.21.1
---68.90.6
61.61.8
----
18
67.00.6
67.00.6
66.00.6
---68.70.8
67.10.5
67.00.7
66.71.0
65.10.5
65.90.8
65.90.8
65.90.8
65.31.1
67.10.8
65.10.4
64.50.4
64.50.8
60.60.6
66.11.3
75.41.4
75.41.4
75.41.4
75.41.4
75.41.4
75.41.4
68.70.9
64.90.7
---70.60.7
67.61.4
----
19
66.60.4
66.60.4
65.70.8
---67.50.7
66.31.1
68.30.8
66.91.0
63.40.9
66.60.7
64.50.9
66.60.7
67.40.9
66.61.3
65.50.3
66.10.5
64.40.7
60.70.2
67.40.7
74.10.9
74.10.9
74.10.9
74.10.9
76.80.6
76.80.6
68.20.5
65.30.7
---69.70.9
67.80.7
----
20
65.60.5
65.50.9
65.60.4
---68.20.7
67.10.8
65.20.7
65.21.0
64.70.9
67.10.8
65.50.8
67.10.8
65.50.8
65.71.1
64.10.6
66.70.6
63.60.8
61.40.7
65.10.6
73.61.2
73.61.2
73.61.2
73.61.2
73.61.2
73.61.2
68.50.5
65.20.9
---69.70.5
65.61.1
----
- 387 -
21
66.00.8
64.50.7
66.20.8
---65.90.6
67.10.8
63.91.1
67.61.2
65.10.5
65.50.9
65.50.9
65.50.9
65.50.9
66.71.2
66.20.8
67.90.4
63.20.6
61.40.3
66.90.9
73.41.0
73.41.0
73.41.0
73.41.0
73.41.0
73.41.0
69.70.9
63.81.3
---67.91.0
68.21.0
----
22
67.90.9
65.10.4
64.50.4
---64.40.7
62.80.6
61.11.1
66.21.2
65.10.5
66.61.2
66.61.2
66.61.2
66.61.2
66.61.2
64.50.4
66.80.7
61.80.3
59.31.2
66.80.6
70.21.0
70.21.0
70.21.0
70.21.0
70.21.0
70.21.0
68.20.4
66.10.8
---72.80.8
66.80.9
----
23
66.60.6
65.10.5
64.10.4
---66.20.8
62.80.4
59.50.5
63.61.1
65.10.4
65.30.9
65.20.9
65.30.9
64.01.2
64.30.7
62.40.5
68.31.2
59.80.8
59.91.4
65.60.5
70.71.1
70.71.1
70.71.1
70.71.1
70.71.1
70.71.1
67.50.3
63.30.9
---72.30.8
67.61.1
----
24
63.61.0
65.91.2
61.30.5
---65.20.2
61.60.5
61.30.7
64.40.7
65.50.6
64.41.2
63.81.0
64.41.2
66.31.4
64.31.2
61.30.5
67.70.7
61.01.1
57.80.4
66.20.3
69.01.6
69.01.6
69.01.6
69.01.6
69.01.6
69.01.6
67.80.5
62.50.9
---70.50.5
70.50.7
----
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
25
65.31.2
65.31.2
62.90.5
---65.31.0
62.80.6
61.30.8
65.31.2
65.50.3
60.50.8
66.41.3
60.50.8
66.41.3
62.90.6
63.00.4
65.60.9
60.10.9
59.80.8
65.60.7
67.40.8
67.40.8
67.40.8
67.40.8
67.40.8
67.40.8
68.60.8
63.40.6
---70.90.7
67.80.8
----
26
62.80.8
62.40.9
65.91.2
---63.60.6
63.40.8
61.10.6
63.30.5
68.50.8
59.41.3
59.20.2
59.41.3
59.20.2
64.80.8
64.70.8
65.41.4
61.10.6
63.40.8
61.70.7
67.10.5
67.10.5
67.10.5
67.10.5
67.10.5
67.10.5
67.10.6
63.21.0
---73.10.7
66.81.1
----
27
61.51.0
64.30.7
66.11.0
---62.50.8
63.80.6
62.60.8
64.41.0
68.00.7
60.21.0
60.21.0
60.21.0
60.50.4
62.30.5
66.11.0
63.40.7
64.31.0
63.40.5
61.00.4
64.51.2
64.51.2
64.51.2
67.10.6
67.10.6
67.10.6
69.30.7
67.70.7
---69.70.7
67.40.9
----
28
59.31.1
63.00.5
64.90.5
---63.30.9
63.70.7
61.51.0
61.41.3
66.10.6
61.30.9
61.30.9
61.30.9
61.30.9
62.80.8
64.90.5
66.81.0
61.41.1
63.81.0
65.60.6
66.71.1
66.71.1
66.71.1
65.21.4
65.21.4
65.21.4
70.70.7
68.40.8
---68.50.7
67.11.1
----
- 388 -
29
63.90.8
64.00.5
67.70.7
---65.60.9
63.70.5
60.11.3
62.61.1
67.70.7
61.80.4
61.80.4
61.80.4
61.80.4
61.10.4
65.20.7
68.60.7
62.51.2
65.90.7
64.80.8
67.90.8
67.90.8
67.90.8
67.90.8
67.90.8
67.90.8
67.10.5
633
---67.00.7
67.90.7
----
30
63.40.5
62.90.7
64.41.1
---64.90.7
63.80.8
60.60.6
67.41.2
67.91.1
62.20.6
62.20.6
62.20.6
62.20.6
63.60.8
64.41.1
67.70.8
59.71.0
64.70.8
63.60.7
68.00.9
68.00.9
68.00.9
68.00.9
68.00.9
68.00.9
67.20.6
68.50.4
---70.90.8
65.70.6
----
31
63.20.8
63.81.0
71.50.9
---66.20.7
67.51.0
63.40.5
68.20.9
64.40.7
63.20.3
63.20.3
63.20.3
63.20.3
66.80.7
71.50.9
66.40.5
64.30.6
64.70.6
69.00.7
68.41.2
68.41.2
68.41.2
68.41.2
68.41.2
68.41.2
69.10.4
67.70.4
---70.31.2
66.40.9
----
32
62.00.4
62.00.4
73.70.5
---66.70.8
65.40.9
63.80.6
69.00.7
67.00.8
61.60.7
61.60.7
61.60.7
61.60.7
64.80.4
73.70.5
66.00.6
67.00.4
66.20.4
70.30.4
70.30.4
70.30.4
70.30.4
70.30.4
70.30.4
70.30.4
68.90.5
66.90.5
---69.10.7
66.80.4
----
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
33
62.11.2
62.11.2
71.00.8
---65.30.4
64.60.7
63.81.1
62.90.9
67.10.8
63.81.3
59.70.7
63.81.3
63.81.3
64.80.6
71.00.8
70.50.6
67.50.5
64.90.5
69.50.5
70.30.8
70.30.8
70.30.8
70.30.4
70.30.8
70.30.8
67.50.6
67.20.8
---70.70.6
66.20.3
----
34
69.70.8
63.21.1
67.80.5
---69.50.8
69.40.5
64.90.6
69.00.6
66.40.2
62.00.7
63.80.3
62.00.7
62.00.7
67.20.5
67.80.5
73.10.9
67.80.6
66.00.5
70.91.1
70.10.8
70.10.8
70.10.8
70.10.8
70.10.8
70.10.8
66.60.3
66.70
---68.70.7
66.70
----
35
70.60.7
69.81.3
61.41.4
---69.40.6
65.90.2
66.91.0
62.31.1
64.60.6
65.90.2
65.90.2
65.90.2
65.90.2
62.50.4
61.41.4
66.30.6
67.70.7
66.30.5
73.61.0
70.90.6
70.90.6
70.90.6
70.90.6
70.90.6
70.90.6
67.00.6
68.60.3
---66.21.0
66.90.2
----
36
69.41.8
69.41.8
62.21.0
---75.30.9
64.11.2
68.00.4
64.90.3
65.50.5
64.90.3
64.90.3
64.90.3
64.11.2
60.80.8
62.21.0
73.11.0
68.30.7
64.50.7
70.20.6
69.90.7
69.90.7
69.90.7
69.90.7
69.90.7
69.90.7
66.90.3
66.70
---68.20.9
66.30.2
----
- 389 -
37
38
61.50.9 61.30.8
61.50.9 61.30.8
60.50.3 61.10.7
------71.80.6 66.70
65.30.5 61.30.8
68.90.3 68.40.4
65.30.5 61.30.8
60.50.3 60.50.4
65.30.5 61.30.8
65.30.5 61.30.8
65.30.5 61.30.8
65.30.5 61.30.8
65.30.5 61.30.8
60.50.3 60.50.4
61.81.1 65.51.0
67.70.6 66.90.2
65.30.5 60.50.4
62.10.7 60.50.4
71.10.6 71.30.8
71.10.6 71.30.8
71.10.6 71.30.8
71.10.6 71.30.8
71.10.6 71.30.8
71.10.6 71.30.8
63.31.2 60.10.9
66.40.2 66.550.11
------67.40.5 66.70
65.60.3 66.30.2
-------
39
64.60.5
64.60.5
64.60.5
---66.70
64.40.6
66.70
64.60.5
64.60.5
64.40.6
64.60.5
64.40.6
64.40.6
64.40.6
64.60.5
66.70
66.70
64.60.5
64.60.5
700.9
700.9
700.9
700.9
700.9
700.9
67.10.5
66.40.4
---66.70
66.70
----
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
1
672
672
69.10.3
63.51.7
63.51.7
672
63.51.7
672
69.10.3
672
672
672
672
672
69.10.3
672
60.11.3
69.10.3
---672
672
672
672
672
672
68.30.4
692
68.30.4
692
69.10.3
68.30.4
2
652
69.50.2
652
63.11.2
54.90.5
69.50.2
52.31.2
652
652
69.50.2
69.50.2
69.50.2
69.50.2
652
652
69.50.2
54.10.6
56.30.8
---60.41.3
60.41.3
60.41.3
60.41.3
60.41.3
60.41.3
57.51.4
70.00.7
69.50.2
70.00.7
68.70.5
68.80.7
3
67.41.6
67.41.6
62.61.2
55.00.5
54.50.5
67.41.6
53.81.0
67.41.6
62.61.2
67.41.6
67.41.6
67.41.6
67.41.6
67.41.6
67.41.6
67.41.6
52.00.5
55.70.6
---60.41.5
60.41.5
60.41.5
60.41.5
60.41.5
60..41.5
51.80.9
662
662
64.30.6
67.11.5
58.71.2
- 390 -
4
642
642
59.51.5
53.90.5
50.60.4
642
53.51.3
642
59.51.5
642
642
642
642
642
59.51.5
642
51.40.8
53.90.5
---53.20.6
53.20.6
53.20.6
57.30.7
57.30.7
57.30.7
53.51.3
60.61.3
642
64.30.8
57.91.4
53.61.0
5
60.81.2
60.81.2
60.81.2
50.400.16
55.30.7
60.81.2
500.9
60.81.2
60.81.2
60.81.2
60.81.2
60.81.2
60.81.2
60.81.2
60.81.2
60.81.2
51.30.5
50.400.16
---53.10.9
53.10.9
53.10.9
57.00.8
53.800.13
53.10.9
55.50.9
53.10.9
62.50.8
54.90.4
54.10.3
53.50.6
6
52.70.7
55.50.5
55.50.5
540
53.60.2
52.70.7
52.70.7
52.70.7
55.50.5
52.70.7
52.70.7
52.70.7
52.70.7
52.70.7
55.50.5
52.70.7
50.50.6
540
---54.30.4
54.30.4
54.30.4
54.30.4
54.30.4
54.30.4
54.30.4
54.30.4
57.60.8
57.60.8
55.50.5
55.50.5
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
1
823
823
833
---833
823
833
823
833
86.21.7
86.21.7
86.21.7
86.21.7
823
823
823
772
812
792
832
832
832
832
832
832
86.21.7
86.21.7
---833
772
86.21.7
2
833
833
86.41.7
---86.41.7
833
88.00.3
853
86.41.7
813
853
813
813
823
88.00.4
88.00.4
73.51.8
88.00.4
783
88.70.3
88.70.3
88.70.3
88.70.3
88.70.3
88.70.3
832
832
---86.41.7
73.41.8
772
3
4
87.50.3 88.20.3
87.50.3 88.20.3
833 87.700.17
------822
812
87.50.3 88.20.3
85.81.6 79.20.2
87.50.3
803
823
822
87.50.3 88.20.3
87.50.3 88.20.3
87.50.3 88.20.3
87.50.3 88.20.3
84.01.8 87.50.3
833 87.700.17
87.90.3 87.50.4
713
76.00.4
842
842
88.40.4 88.20.2
812
87.41.4
812
87.41.4
812
87.41.4
812
913
812
813
812
813
88.10.3 86.31.6
88.80.5 88.70.2
------823
832
72.71.8 75.10.7
703
77.50.4
- 391 -
5
813
813
822
---783
823
78.70.5
84.61.8
85.91.7
852
852
852
833
842
85.91.7
852
722
85.21.9
88.30.3
852
852
852
842
842
842
88.30.4
86.71.7
---813
682
76.50.9
6
842
88.800.13
823
---832
843
773
89.050.16
86.71.7
86.51.7
86.51.7
86.51.7
86.51.7
86.41.7
823
832
742
843
802
88.50.2
88.50.2
88.50.2
87.80.5
86.61.7
86.71.7
832
86.71.7
---822
62.31.0
76.90.8
7
82.01.8
89.30.2
87.20.3
---85.40.3
82.01.8
77.50.3
82.01.8
822
86.31.9
86.31.9
86.31.9
833
832
87.20.3
87.80.4
76.01.1
822
86.60.4
832
832
832
822
822
822
823
842
---852
62.61.5
73.81.9
8
89.40.2
88.30.4
773
---823
852
76.80.2
88.70.2
823
832
832
832
833
86.11.6
773
852
742
88.60.2
86.40.2
833
833
833
822
823
823
87.750.15
88.550.05
---85.61.5
64.71.3
77.91.2
Mtodo
9
10
11
BL2
852
842
842
TEKA
852
842
842
CIB
84.70.2 86.20.4 83.11.8
---------TEKE
TEKC
762
74.90.4 76.450.05
DEV
833
842
842
DER3
742
713
75.50.2
TEKB 88.30.2
813
87.300.13
TEK
84.11.1
802
86.00.4
BL1
843
842
87.40.3
CLO
843
842
87.40.3
PRI
843
842
87.40.3
SAN
843
843
87.40.3
DER2
832
832
88.250.08
MAO
84.11.1
802
86.00.4
UTA
832 88.300.13 86.21.7
LEE
75.20.8
712
752
BOW 88.600.19
813
793
YOU
812
86.20.4
823
BA 0.5 84.51.9 86.01.6
832
BA 0.6 84.51.9 86.01.6
832
BA 0.7 84.51.9 86.01.6
832
BA 0.8
832
833
833
BA 0.9
833
783
86.91.5
BA 1
833
772
87.150.07
CHI
823
843
793
SET
842
86.81.7
832
---------GD_DS
RLF
88.350.10 852
88.050.05
SCH
61.01.2 61.01.4 59.61.3
FUZ
762
69.61.7 68.41.6
- 392 -
12
822
822
86.90.4
---742
822
723
822
833
822
822
822
822
880
833
852
76.01.3
832
832
852
852
852
812
87.50.3
812
842
852
---802
58.40.8
652
13
14
15
823
85.81.5
880
823
85.81.5
880
813
76.50
723
---------76.50
722
550
823
85.81.5
880
75.70.2 74.650.11
550
823
852
880
813
85.81.5
880
832
852
880
832
852
880
832
852
880
832
852
880
880
852
880
813
76.50
723
813
85.81.5
880
722
723
68.30.5
880
54.70.4 53.00.5
813
85.81.5
880
880
842
880
880
842
880
880
842
880
880
852
880
87.400.16
813
880
880
813
880
833
842
880
880
842
880
---------83.71.4
852
880
552
562
550
62.61.0 59.70.7 61.10.7
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
1
70.21.7
70.21.7
70.21.7
61.60.4
59.80.2
70.21.7
65.40.2
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
59.80.2
70.21.7
---70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
70.21.7
69.91.4
---65.40.2
592
2
3
4
5
6
7
70.70.5 68.40.4 54.30.4 40.21.6 23.40.2 16.20.8
70.70.5 68.40.4 54.30.4 40.21.6 23.40.2 16.20.8
68.41.4 55.860.15
443
40.21.6 23.40.2 16.20.8
60.970.10 54.000.06
372
382
32.50.3 19.20.2
56.01.9 52.90.2 45.40.2 44.390.04 32.050
16.30
70.70.5 68.40.4 54.30.4 40.21.6 23.40.2 16.20.8
65.21.0 55.40.9 46.330.12 32.170.11 24.970.08 17.640.07
70.80.5 68.40.4 54.30.4 36.810.18 23.40.2 16.20.8
56.01.9
542
39.81.8 38.50.2 23.40.2 16.20.8
602
60.00.6 54.30.4 42.00.5 32.850 17.640.07
68.41.4 55.880.15 41.91.4 30.00.2 22.31.3
17.60
602
55.880.15 54.30.4 42.90.5 32.850 17.640.07
70.80.5 68.40.4 54.30.4 44.110.14 32.850 19.20.2
70.70.5 60.00.6 54.30.4 40.21.6 30.440.05 16.30
68.41.4 55.880.15 47.80.3 40.21.6 23.40.2 16.20.8
70.70.5 68.40.4 54.30.4 40.21.6 31.460.14 16.70.8
53.20.4
442
322 26.390.08 16.80.9 9.900.10
62.10.3 59.51.0 45.40.2
382
27.230.12 17.950
------------------70.80.5 60.00.6 51.020.14 42.90.5 30.450.05 17.640.07
70.70.5 60.00.6 54.30.4 42.90.5 30.450.05 17.640.07
70.70.5 60.00.6 54.30.4 42.90.5 30.450.05 17.640.07
70.70.5 60.00.6 54.30.4 42.90.5 30.450.05 17.640.07
70.70.5 60.00.6 54.30.4 42.90.5 30.450.05 17.640.07
70.70.5 60.00.6 54.30.4 42.90.5 30.450.05 17.640.07
70.70.5 60.00.6 51.020.14 42.90.5 32.850 17.640.07
70.70.5 60.00.6 47.91.3 40.21.6 30.450.05 16.30
70.70.5 60.00.6 51.020.14 37.900.02
250
17.640.07
------------------53.10.2 43.61.6 39.210.03 25.730.05 16.80.9 17.640.07
50.01.9 44.160.11 32.390.14 26.40.08 18.80.09
190
- 393 -
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
1
493
443
443
493
363
493
402
443
443
493
493
443
493
443
443
443
402
553
---493
493
493
493
593
503
443
493
493
---402
----
2
493
493
493
503
523
493
373
493
493
403
493
493
493
493
493
493
432
553
---472
472
472
472
472
472
493
503
332
---432
----
3
482
483
36.11.4
473
36.11.4
513
362
36.11.4
36.11.4
483
483
483
483
483
483
483
362
472
---463
463
463
463
463
463
36.11.4
473
462
---362
----
- 394 -
4
493
493
553
433
462
513
392
462
462
493
513
513
513
513
553
532
40.90.7
513
---563
563
563
563
563
563
553
503
343
---40.90.7
----
5
473
473
473
443
423
473
382
423
423
473
473
473
473
473
463
473
41.91.5
503
---533
533
533
523
523
523
463
473
403
---41.91.5
----
6
523
523
553
523
482
523
41.90.7
523
523
523
523
523
523
483
483
443
37.31.8
423
---433
533
443
443
443
443
523
523
382
---42.51.3
----
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
7
443
443
423
543
453
423
41.90.9
453
453
443
443
443
443
473
473
443
39.50.8
543
---473
473
473
473
473
473
423
443
412
---37.21.8
----
8
493
493
493
473
37.01.9
493
43.61.3
463
463
463
493
463
493
523
493
493
40.60.8
523
---432
432
432
432
432
432
493
463
392
---36.11.2
----
- 395 -
9
563
563
543
503
37.71.1
493
31.61.0
563
563
563
493
563
563
563
563
563
34.10.8
453
---453
453
453
453
453
453
563
453
382
---35.91.0
----
10
603
603
493
37.50
37.21.5
603
32.51.5
37.21.5
37.21.5
603
603
603
603
37.21.5
603
603
35.90.7
603
---603
603
603
603
603
603
603
35.61.6
37.21.5
---35.90.7
----
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
1
762
762
762
742
773
762
742
762
762
752
762
752
762
762
762
762
742
762
732
752
752
752
752
752
752
762
762
762
722
752
772
2
742
742
743
763
752
742
742
742
783
742
742
742
742
743
743
742
752
783
783
703
703
703
703
703
703
762
783
762
743
732
743
3
742
752
79.70.6
76.51.8
752
742
722
742
762
752
752
752
752
77.40.9
713
742
76.91.8
783
773
75.60.7
75.60.7
75.60.7
75.60.7
75.60.7
75.60.7
753
773
803
77.40.9
742
813
- 396 -
4
81.30.8
81.30.8
763
752
762
81.30.8
742
762
723
74.51.6
75.91.8
74.51.6
75.91.8
783
763
752
70.01.9
762
723
722
722
722
722
722
722
773
722
773
752
69.81.8
763
5
752
752
762
762
762
752
732
752
752
74.61.7
74.61.7
74.61.7
74.61.7
732
762
752
622
752
742
693
693
693
693
693
693
733
693
73.81.9
693
622
703
6
7
79.11.0
742
79.11.0
742
79.31.1
723
742
76.20.5
78.50.6
722
79.11.0
742
703
722
79.11.0
742
79.90.8
762
79.11.0
783
79.11.0
783
79.11.0
783
79.11.0
783
79.11.0
742
79.31.1
732
74.41.7
772
65.71.4 61.01.3
802
723
79.31.1
762
773
742
773
742
773
742
773
742
773
742
773
742
803
783
773
752
76.40.6
762
713
742
65.21.5 65.21.0
683
652
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
8
723
723
693
742
76.81.8
712
722
723
773
773
802
773
763
723
752
723
58.91.7
81.31.0
723
71.31.9
71.31.9
712
712
712
712
743
742
742
722
57.90.9
64.91.5
9
713
713
74.10.9
75.50.3
742
713
74.80.5
79.41.8
79.90.8
762
752
762
752
82.90.5
74.10.9
763
62.41.5
76.61.8
79.90.8
762
73.70.5
73.70.5
73.70.5
73.70.5
73.70.5
762
77.81.9
78.30.5
76.61.8
61.01.0
67.11.6
10
762
762
713
73.20.5
703
762
693
762
74.01.5
732
762
732
762
722
713
703
60.91.9
73.21.9
74.40.5
74.81.6
693
693
69.81.8
69.81.8
69.81.8
732
792
783
73.21.9
60.61.2
67.40.3
- 397 -
11
89.70.8
79.70.8
713
713
663
79.70.8
66.11.9
663
713
672
713
672
713
692
713
742
56.71.4
742
722
723
722
722
68.41.6
68.41.6
66.91.5
672
79.60.8
762
682
53.90.6
64.01.7
12
672
672
652
713
672
672
70.70.3
67.21.6
652
67.21.6
67.21.6
67.21.6
67.21.6
70.10.5
652
663
58.50.7
663
67.21.6
70.30.2
68.60.5
68.60.5
68.60.5
68.60.5
68.60.5
71.610.17
672
672
663
55.10.4
55.10.4
13
713
68.51.6
732
49.90.5
58.70.4
713
66.41.4
68.51.6
732
68.51.6
68.51.6
68.51.6
68.51.6
66.41.4
662
68.51.6
50.70.4
68.51.6
662
61.140.15
61.140.15
61.140.15
61.140.15
61.140.15
61.140.15
61.140.15
66.41.4
713
57.70.6
51.70.7
56.90.5
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
1
96.80.3
96.80.3
96.80.3
---96.80.3
96.80.3
97.70.3
96.80.3
96.80.3
96.80.3
96.80.3
96.80.3
96.80.3
96.80.3
96.80.3
97.70.3
96.30.4
96.80.3
96.80.3
97.80.2
97.80.2
97.80.2
97.80.2
97.80.2
97.80.2
93.81.2
93.81.2
---93.81.2
96.30.4
----
2
96.70.4
96.70.4
96.70.4
---96.60.5
96.70.4
95.80.8
96.70.4
96.70.4
96.70.4
96.70.4
96.70.4
96.70.4
932
96.70.4
96.01.0
94.20.3
96.70.4
932
95.81.8
95.81.8
95.81.8
95.81.8
95.81.8
95.81.8
932
94.81.8
---932
97.50.3
----
3
94.21.9
94.21.9
94.21.9
---91.81.8
94.21.9
96.20.5
94.21.9
94.21.9
94.21.9
94.21.9
94.21.9
94.21.9
94.21.9
94.21.9
94.11.8
912
96.20.9
96.50.8
95.01.6
95.01.6
95.01.6
95.01.6
95.01.6
95.01.6
94.11.8
96.30.3
---94.11.8
92.21.8
----
4
96.20.9
96.20.9
96.20.9
---932
96.20.9
96.00.5
96.20.9
96.20.9
96.20.9
96.20.9
96.20.9
96.20.9
96.20.9
96.20.9
922
93.80.4
97.10.5
97.20.4
95.01.8
92.81.9
92.81.9
92.81.9
92.81.9
92.81.9
96.10.5
96.50.6
---932
902
----
- 398 -
5
94.41.8
94.41.8
97.80.3
---94.70.4
94.41.8
933
94.41.8
94.41.8
97.80.3
97.80.3
97.81.2
94.41.8
97.80.3
94.41.8
97.60.2
89.91.1
912
94.11.8
96.80.4
96.80.4
96.80.4
96.80.4
96.80.4
96.80.4
94.61.7
96.31.1
---97.50.3
89.11.7
----
6
7
8
96.40.8
96.60.7
932
96.40.8
942
932
96.40.8
942
97.30.3
---------912
94.720.15 93.80.5
96.40.8
942
932
96.40.3
93.70.3 93.810.19
96.40.8
942
932
96.40.8
93.81.8
95.41.0
96.51.2
942
97.30.3
96.40.8
942
932
96.51.2
942
97.30.3
96.40.8
942
932
96.40.8
942
932
96.40.8
942
97.30.3
96.60.4
962
932
91.420.12 89.40.6
84.30.8
97.80.3
96.80.3
96.01.1
96.40.8
942
932
96.30.5
95.70.6
96.30.6
96.30.5
95.70.6
96.30.6
96.30.5
95.70.6
96.30.6
96.30.5
95.70.6
96.30.6
96.30.5
95.70.6
96.30.6
96.30.5
95.70.6
96.30.6
94.81.0
932
93.81.8
96.40.7
93.01.8
95.70.9
---------962
97.10.5
96.11.0
89.30.6
85.71.9
89.60.7
----------
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
9
96.60.9
96.60.9
943
---902
922
90.91.5
943
96.50.4
943
96.60.9
943
96.60.9
943
943
98.320.16
82.80.4
96.80.4
96.80.6
92.81.9
92.81.9
92.81.9
92.81.9
96.10.7
96.10.7
96.30.9
903
---96.31.1
883
----
10
97.10.6
96.51.2
94.81.8
---902
97.40.3
882
96.51.2
93.81.4
96.51.2
96.51.2
96.51.2
96.51.2
96.51.2
94.41.8
952
802
97.20.4
952
94.71.8
94.71.8
95.80.9
95.80.9
95.80.9
95.80.9
91.61.8
95.70.5
---95.81.8
91.71.6
----
11
97.01.2
97.01.2
96.80.6
---93.90.2
97.90.4
89.70.5
97.00.6
97.10.3
94.81.8
94.81.8
94.81.8
94.81.8
96.30.7
96.80.5
96.11.0
79.41.9
95.91.8
97.20.6
94.31.6
94.31.6
933
933
933
933
91.21.8
95.90.4
---93.91.7
863
----
12
96.50.6
96.50.6
96.10.5
---92.71.2
97.00.8
86.91.7
95.81.6
93.20.9
95.81.6
95.81.6
95.81.6
95.81.6
942
96.10.5
95.81.6
80.80.2
94.41.9
96.10.6
923
923
92.41.8
92.41.8
922
922
93.10.8
93.10.8
---96.51.1
83.01.5
----
- 399 -
13
14
15
95.00.6 92.31.7
912
93.51.6 95.51.9
94.70.8
95.51.8 94.91.8
96.30.8
---------90.40.9 87.31.9
91.70.5
96.40.9 96.80.6
92.51.9
87.80.5 87.20.4
89.10.6
93.51.6 97.20.6
95.90.7
93.71.1 94.21.1
94.70.7
93.51.6 95.51.9
97.10.5
93.51.6 95.11.8
95.90.7
93.51.6 95.51.9
97.10.5
93.51.6 95.11.8
95.90.7
96.70.6 95.51.9
96.60.3
95.51.8 94.91.8
96.30.8
93.51.6 97.20.6
92.51.9
74.61.6 76.11.3 77.940.05
942
912
97.00.4
94.31.2 95.20.9
96.30.4
93.41.8 94.340.12 94.30.6
892
92.50.6
91.90.2
95.20.7 90.91.7
862
95.20.7 90.91.7
842
793
812
842
793
812
842
93.30.7 92.80.5
92.20.4
94.01.0 94.50.4
92.20.4
---------95.31.8 96.00.7
94.61.8
872
852
872
----------
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
16
94.10.5
95.20.6
94.80.9
---89.00.4
96.20.6
87.80.6
942
94.80.9
96.01.6
96.01.6
96.01.6
942
94.91.7
97.30.2
942
63.10.3
95.71.6
94.60.6
92.51.4
893
862
862
862
862
91.40.3
91.40.3
---95.71.1
873
----
17
91.70.7
92.61.6
97.20.5
---870
932
842
932
94.60.7
942
942
942
932
95.90.5
922
94.51.8
63.10.3
94.51.8
912
89.80.3
89.80.3
882
882
882
882
89.530
94.20.7
---95.80.4
72.41.6
----
18
19
892
93.40.2
91.40.8
93.40.2
90.970.14
883
------86.940.06 86.50.4
91.40.8
93.40.2
87.110.11 87.660.18
91.40.8
91.91.5
91.91.6 91.2930.011
97.00.3
91.91.5
97.00.3
91.91.5
97.00.3
91.91.5
91.40.8
91.91.5
883
89.21.7
90.970.14
883
93.31.8
93.60.2
62.870.16 63.00.3
97.00.3
91.91.5
94.60.4 91.2930.011
872
873
872
873
723
733
723
733
723
733
723
733
873
90.10.4
873
90.10.4
------94.81.0
93.90.8
712
712
-------
- 400 -
20
21
91.450.17 86.670
91.450.17 86.670
89.91.3
78.070
------86.80.2
870
88.51.4
82.71.6
79.11.3
78.40.7
872
82.71.6
89.91.3
78.070
872
873
872
873
872
873
872
82.71.6
91.730
78.070
89.91.3
78.070
91.730
78.070
63.60.3 62.310.04
872
873
89.91.3
82.31.9
90.30.4
91.30.6
90.30.4
91.30.6
843
803
843
803
843
803
833
803
89.990.19 91.30.6
86.11.0
782
------90.61.2
872
72.41.6
62.270
-------
22
78.070
78.070
78.070
---73.20
78.070
752
62.270
66.930
62.270
62.270
62.270
62.270
78.070
78.070
78.070
62.270
62.270
66.930
773
773
773
773
773
773
773
773
---62.270
62.270
----
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
1
682
682
682
692
692
682
422
682
682
682
682
682
682
682
712
712
432
682
682
832
832
832
832
832
832
682
682
832
703
432
693
2
692
692
692
683
75.01.0
723
623
692
692
692
692
692
692
692
692
692
432
692
692
73.90.9
73.90.9
73.90.9
73.90.9
73.90.9
73.90.9
702
702
673
702
42.21.2
75.01.0
3
68.11.9
712
712
77.1.10
702
712
44.90.9
723
723
68.11.9
723
68.11.9
712
723
712
723
40.91.0
723
723
692
692
692
692
692
692
702
702
692
723
44.50.8
702
- 401 -
4
702
703
763
692
39.70.5
763
45.61.5
763
763
702
763
702
703
673
763
763
452
763
692
712
712
712
712
712
712
702
702
733
613
44.70.9
723
5
743
693
693
693
40.40.7
693
45.01.0
693
693
743
693
743
693
743
703
693
45.01.0
633
693
693
693
693
693
693
693
743
743
762
633
43.40.6
743
6
712
712
712
712
40.41.6
712
45.61.5
712
712
712
712
712
712
712
712
712
45.61.5
48.00.3
712
712
712
712
712
712
712
712
712
712
460
45.61.5
712
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
1
69.21.2
69.21.2
69.21.2
69.21.2
69.10.7
69.21.2
68.00.3
69.21.2
69.21.2
69.21.2
69.21.2
69.21.2
69.21.2
69.10.7
69.21.2
69.21.2
68.10.2
69.21.2
69.10.7
69.10.7
69.10.7
69.10.7
69.10.7
69.10.7
69.10.7
68.00.3
68.00.3
69.21.2
69.21.2
68.10.2
69.70.4
2
3
4
67.40.4
66.30.6
66.90.4
67.40.4
66.30.6
680
67.40.4
66.31.0
680
70.60.8
67.90.7 67.900.10
67.60.4
680
680
67.40.4
66.31.0
67.70.3
68.100.18
680
680
67.40.4
66.30.6
66.90.4
67.40.4
65.90.7
680
67.40.4
66.30.6
66.90.4
67.40.4
66.31.0
66.90.4
67.40.4
66.30.6
66.90.4
67.40.4
66.30.6
66.90.4
67.60.4
66.00.8
680
67.40.4
66.31.0
680
67.40.4
66.31.0
680
68.100.18
680
680
68.50.4
65.90.7
680
68.60.4 68.100.18 67.70.3
68.60.4
67.40.4
680
68.60.4
67.40.4
680
68.60.4
67.40.4
680
68.60.4
67.40.4
680
68.60.4
67.40.4
680
68.60.4
67.40.4
680
68.100.18
680
680
68.100.18
680
680
67.40.4
65.90.7
67.60.4
67.00.5
66.30.6
680
68.100.18
680
680
66.10.7
680
680
- 402 -
5
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
6
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
680
Mtodo
1
BL2
792
TEKA
792
CIB
792
TEKE
843
TEKC
843
DEV
813
DER3
813
TEKB
783
TEK
783
BL1
792
CLO
792
PRI
792
SAN
792
DER2
813
MAO
792
UTA
792
LEE
773
BOW
792
---YOU
BA 0.5
783
BA 0.6
783
BA 0.7
783
BA 0.8
783
BA 0.9
783
BA 1
783
CHI
91.900.10
SET
91.900.10
GD_DS
783
RLF
843
SCH
682
FUZ
813
2
753
753
753
832
792
753
783
773
773
753
753
753
753
783
753
89.01.9
48.60.9
753
---773
773
773
773
773
773
753
753
812
803
48.60.9
68.41.5
3
802
802
802
843
743
802
48.11.0
802
802
853
802
853
802
802
802
803
47.91.6
802
---813
813
813
813
813
813
802
802
793
853
47.91.6
65.31.9
- 403 -
4
842
842
90.21.2
90.21.2
752
842
48.71.5
803
803
90.21.2
90.21.2
90.21.2
90.21.2
842
90.21.2
812
52.30.7
842
---842
842
842
842
842
842
90.21.2
90.21.2
812
90.21.2
540
68.71.1
5
892
892
892
892
842
892
43.61.2
892
892
892
892
892
89.32
892
892
892
51.70.5
892
---892
892
892
892
892
892
892
892
892
892
540
642
6
792
792
792
792
792
792
49.51.6
792
643
643
643
643
643
643
792
792
51.60.4
792
---643
643
643
643
643
643
643
643
643
792
540
642
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
1
74.81.1
74.81.1
75.240.17
66.30.6
75.240.17
74.81.1
76.30.3
75.240.17
75.240.17
75.50.3
75.50.3
75.50.3
75.50.3
75.50.3
75.240.17
75.240.17
66.30.6
75.240.17
75.240.17
75.50.3
75.50.3
75.50.3
75.50.3
75.50.3
75.50.3
75.60.2
75.50.3
75.50.3
75.240.17
66.30.6
75.40.3
2
76.10.2
76.10.2
76.10.2
65.30.7
75.10.3
76.10.2
75.440.14
76.10.2
76.10.2
75.720.18
75.720.18
75.720.18
75.720.18
75.720.17
76.10.2
75.720.18
69.70.7
76.040.13
76.10.2
75.600.08
75.600.08
75.600.08
75.600.08
75.600.08
75.600.08
74.41.0
74.41.0
74.41.0
75.00.4
65.70.6
75.440.14
- 404 -
3
76.760.15
76.760.15
76.160.18
70.80.4
74.80.4
76.160.18
75.80.2
76.760.15
76.160.18
76.760.15
76.760.15
76.760.15
76.760.15
74.41.1
76.160.18
76.760.15
66.90.5
73.71.4
76.160.18
75.51.2
75.51.2
75.51.2
75.51.2
75.51.2
75.51.2
75.200.13
75.200.13
75.200.13
76.160.18
65.20.4
74.920.13
4
76.160.17
76.160.17
76.160.17
70.80.9
75.50.3
76.160.17
64.80.5
76.160.17
73.61.4
77.00.2
77.00.2
77.00.2
76.160.17
77.00.2
73.61.4
76.160.17
67.90.7
76.520.12
76.520.12
77.560.15
77.560.15
77.560.15
77.560.15
77.560.15
77.560.15
76.400.17
74.61.1
78.80.3
73.61.4
64.70.5
74.50.2
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
5
77.200.18
77.200.18
75.70.4
69.10.8
74.60.3
77.200.18
60.400.17
77.200.18
75.10.3
76.560.09
76.560.09
76.560.09
76.560.09
76.560.09
75.70.4
76.560.09
67.80.5
75.10.3
75.10.3
76.21.2
76.21.2
76.21.2
76.21.2
76.21.2
76.21.2
76.20.3
76.20.3
68.30.6
75.10.3
63.10.5
75.70.4
6
77.00.3
77.00.3
75.520.10
65.90.2
73.71.0
77.00.3
65.90.2
77.00.3
75.520.10
75.520.10
75.520.10
75.520.10
75.520.10
75.520.10
75.520.10
77.320.18
66.90.3
73.41.3
75.520.10
77.320.18
77.320.18
77.320.18
77.320.18
77.320.18
77.320.18
77.00.3
77.00.3
69.30.6
73.41.3
67.560.17
74.41.0
- 405 -
7
75.760.14
75.760.14
75.760.14
66.080.13
65.000.09
75.760.14
65.000.09
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
64.440.13
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
66.70.2
75.760.13
67.60.4
67.60.4
8
74.40
74.40
74.40
65.20
65.20
63.30.3
65.600.13
63.30.3
74.40
63.30.3
63.30.3
63.30.3
63.30.3
63.30.3
74.40
74.40
65.20
74.40
74.40
74.40
74.40
74.40
74.40
74.40
74.40
74.40
74.40
65.560.11
74.40
65.20
65.400.17
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
1
94.40.3
94.40.3
94.40.3
93.70.2
932
94.20.4
93.70.2
94.90.3
94.90.3
94.40.3
94.40.3
94.40.3
94.40.3
94.40.3
94.90.3
94.40.3
91.30.6
912
94.20.4
93.01.6
92.81.6
92.81.6
92.81.6
92.81.6
92.81.6
912
912
94.40.3
94.40.3
91.30.6
----
2
912
94.20.3
912
883
94.50.3
903
913
922
912
93.21.6
912
93.21.6
912
912
912
912
903
94.60.3
88.91.9
94.50.3
94.50.3
94.50.3
94.50.3
94.50.3
94.50.3
912
912
95.40.4
94.10.3
903
----
3
94.80.2
922
94.80.2
92.70.4
94.00.2
94.80.2
902
922
922
93.31.6
93.31.6
93.31.6
922
93.31.6
94.80.2
94.80.2
92.40.5
913
94.50.5
912
912
912
912
94.40.3
94.40.3
912
912
912
94.20.2
91.00.8
----
4
5
922
95.90.2
922
95.90.2
922
95.00.3
903
92.60.3
912
88.31.9
922
95.90.2
92.31.5
873
922
93.81.6
912
92.91.6
91.61.8 93.81.6
93.80.3 92.81.6
91.61.8 93.81.6
922
922
95.10.2
922
94.90.4 94.80.3
95.10.2 94.60.4
91.60.3
893
912 94.600.16
95.30.2
922
922
94.50.4
922
902
922
902
922
902
922
902
922
902
902
93.40.5
902
93.40.5
902
93.40.5
92.81.5
922
89.40.4
842
-------
- 406 -
6
893
893
912
87.81.8
852
893
88.70.3
893
92.80.3
95.00.3
902
95.00.3
95.00.3
95.00.3
94.90.2
94.01.5
92.10.4
94.10.3
92.61.7
922
93.50.3
93.20.2
93.20.2
93.20.2
893
902
902
902
93.01.6
802
----
7
94.200.13
94.200.13
94.70.3
91.10.3
89.00.5
93.20.4
87.40.3
94.900.18
902
95.00.4
94.70.4
95.00.4
95.00.4
93.01.6
94.70.3
94.60.3
90.40.7
94.600.16
95.20.2
91.21.8
903
903
903
903
93.30.3
903
903
94.70.3
922
84.50.5
----
8
95.20.2
94.30.2
95.30.2
88.11.6
87.90.5
93.90.4
863
95.00.3
94.40.2
93.11.6
93.80.2
93.11.6
93.11.6
92.51.6
94.60.2
93.11.6
88.70.4
912
903
92.41.6
92.01.5
92.01.5
92.80.3
92.80.3
93.40.3
94.20.3
94.20.3
94.20.3
93.81.6
87.80.6
----
Mtodo
9
10
11
12
13
14
15
BL2
89.41.3 91.80.3
883
882
92.800.13 93.000.15 872
TEKA
912
89.01.9 93.11.6
912
92.800.13 92.900.18 91.51.5
CIB
95.20.2 95.500.17 94.30.7 92.01.4 92.51.6 90.11.7 92.200.13
TEKE
863
91.80.8
893
85.50.3 72.01.0 72.01.0 72.600.16
TEKC
832
812
81.10.3
793
83.300.15 72.20.2
680
DEV
92.11.5 93.70.3
872
893
883
90.90.4
872
DER3 88.10.2 87.80.4 86.80.3
870
870
82.10.4
710
TEKB
892
882
91.80.5 94.100.10 92.800.13 92.900.18 872
TEK
94.60.2 94.10.4
912
883
88.11.9 90.11.7
872
BL1
913
91.41.8 91.61.6 91.41.8
922
940
930
CLO
913
91.41.8 91.61.6 91.41.8
922
940
930
PRI
913
91.41.8 91.61.6 91.41.8
922
940
930
SAN
94.50.5 91.41.8 91.61.6
912
922
940
872
DER2 94.50.5 91.41.8 95.400.16 91.41.8
922
92.900.18 872
MAO
922
95.500.17 95.500.17 92.01.4
873
90.11.7 92.200.13
UTA
94.50.5 91.41.8 95.60.5
960
922
92.900.18 872
LEE
86.50.5
832
83.01.6
812
802
64.00.5 65.80.2
BOW 94.900.18 94.80.2 94.01.6 94.100.10
922
940
930
YOU
913
95.500.17
923
93.51.6
922
92.900.18 92.30.5
BA 0.5 94.400.16 93.30.9 92.61.6 92.51.6 92.51.6 93.000.15
930
BA 0.6
892
882
903
902
92.31.5 93.100.17 930
BA 0.7
892
882
903
882
892
93.100.18 930
BA 0.8
892
882
903
882
892
93.100.18 930
BA 0.9
892
882
903
882
892
93.100.18 930
BA 1
892
93.40.2 93.30.2 94.10.4 92.31.5 94.100.10 930
CHI
92.60.2 90.50.8
893
873
892
872
872
SET
903
90.50.8 91.50.4
873
892
872
872
GD_DS 903
90.50.8
893
893
92.700.15 91.50.3
902
RLF
94.40.5 93.900.10 93.800.13 940
93.70.3
940
930
SCH
83.40.7 80.70.5 80.60.3 72.70.6 70.10.5 62.900.10 630
---------------------FUZ
- 407 -
16
88.81.7
88.81.7
88.81.7
740
680
88.81.7
710
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
660
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
88.81.7
630
----
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
1
952
952
952
97.51.7
99.000.14
98.690.19
952
952
952
952
952
952
952
952
97.21.7
96.41.6
98.70.6
952
96.690.11
98.750.13
98.750.13
98.750.13
98.750.13
98.750.13
98.750.13
99.060.14
96.81.7
96.81.7
98.70.2
97.51.7
952
2
942
98.690.14
933
99.500.08
95.01.9
98.40.5
98.500.14
933
942
98.500.10
98.500.10
98.500.10
98.500.10
933
96.690.15
933
96.01.4
952
942
942
96.91.7
96.91.7
96.91.7
96.91.7
96.91.7
943
98.40.3
98.30.5
942
98.11.2
98.500.10
3
98.50.4
942
98.500.19
952
98.690.15
962
94.61.9
98.40.3
98.500.19
98.10.5
98.10.5
98.10.5
98.10.5
98.40.3
98.50.4
922
932
94.91.9
952
98.750
98.630.13
98.630.13
98.630.13
98.630.13
98.630.13
98.10.6
98.10.6
98.10.6
98.880.08
99.250.08
98.190.17
- 408 -
4
98.10.7
98.10.7
95.41.9
94.31.8
96.01.6
98.00.6
98.40.5
98.750.13
95.41.9
933
96.11.8
933
96.11.8
943
99.060.10
952
98.80.3
97.21.7
98.90.2
98.810.06
98.810.06
98.810.06
98.810.06
98.810.06
98.810.06
98.500.10
98.40.4
922
96.51.8
97.10.9
96.61.7
5
97.31.7
98.60.4
95.61.6
97.31.7
943
943
97.11.7
97.21.7
95.61.6
98.130.16
952
98.130.16
98.130.16
95.61.6
98.60.2
98.60.2
98.80.4
99.130.17
98.11.0
97.80.9
97.80.9
97.80.9
97.80.9
97.80.9
97.80.9
98.630.18
98.30.5
932
98.70.5
922
98.630.13
6
98.930.16
99.060.14
96.81.7
942
99.000.19
932
943
962
96.81.7
96.71.7
98.690.17
96.71.7
98.690.17
98.630.13
99.060.14
952
98.40.3
922
94.81.9
933
933
933
933
933
933
98.40.6
98.40.6
98.060.17
99.250.18
97.10.9
98.500.14
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
7
97.81.0
97.11.7
98.690.15
912
98.40.5
98.30.3
97.11.7
952
98.70.4
98.630.18
952
98.630.18
952
98.880.16
98.940.13
933
962
96.81.6
99.440.11
902
902
902
923
923
923
97.560.17
97.060.09
97.060.09
98.560.16
88.10.8
933
8
97.21.4
962
98.40.4
942
99.190.13
97.21.4
97.01.7
97.90.8
98.40.4
97.90.8
98.810.17
97.90.8
97.90.8
98.80.2
98.60.2
952
97.50.8
97.01.7
99.40.2
942
942
942
922
922
922
942
97.30.2
95.51.6
98.20.2
83.31.9
95.61.9
9
99.000.10
962
98.90.2
893
96.11.9
942
933
98.500.17
98.750.16
95.81.6
95.8.1.6
95.81.6
95.81.6
942
97.01.7
98.810.17
922
99.190.13
97.51.8
922
922
922
922
922
922
94.01.8
95.51.6
96.10.2
98.440.19
80.61.9
912
- 409 -
10
952
96.91.7
96.01.6
932
96.31.7
98.20.3
962
96.21.8
942
96.41.1
96.41.1
96.41.1
96.41.1
98.940.13
96.01.6
97.70.9
98.40.3
99.10.3
97.11.6
882
882
882
893
893
893
97.380.18
97.70.2
932
98.810.15
82.80.4
902
11
98.10.9
96.81.8
98.90.2
873
98.60.8
98.880.16
96.41.8
98.750.16
96.51.5
96.81.7
98.810.15
96.81.7
98.810.14
97.01.7
952
98.810.15
96.01.8
98.50.3
99.500.15
893
893
893
95.60.4
95.60.4
95.60.4
96.880.09
96.61.0
883
96.61.7
82.190.14
942
12
98.940.19
99.00.4
96.51.8
903
97.91.1
96.21.6
96.31.7
97.80.9
99.500.18
97.80.9
98.750.16
97.80.9
97.80.9
98.60.2
96.51.8
98.750.16
902
99.00.4
98.61.2
903
903
903
95.30.2
95.30.2
95.30.2
97.690.09
942
892
913
772
95.61.7
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
13
952
962
99.250.13
912
95.71.9
98.60.2
903
97.41.7
98.880.18
97.41.7
97.41.7
97.41.7
97.41.7
98.810.17
932
98.70.2
902
962
97.71.8
903
903
903
903
902
902
97.810.10
98.190.17
96.750.08
962
94.81.4
932
14
98.20.4
98.00.8
952
912
98.80.2
99.250.13
942
96.91.7
952
98.10.9
98.10.9
98.10.9
96.91.7
98.90.2
952
98.10.9
853
99.500.13
96.11.7
97.40.4
97.40.4
97.40.4
97.40.4
97.40.4
97.40.4
98.630.13
96.940.06
95.31.6
952
932
952
15
933
97.91.0
98.60.2
902
942
98.40.7
922
98.810.15
96.91.8
98.810.15
98.810.15
98.810.15
98.810.15
99.130.10
98.50.4
97.21.7
903
97.21.8
96.690.17
932
932
932
932
932
932
98.10.4
97.190.14
97.190.14
98.880.16
922
913
- 410 -
16
96.41.7
98.20.7
98.20.2
932
96.61.9
94.81.8
942
98.20.7
96.51.8
98.20.7
98.20.7
98.20.7
98.20.7
952
97.41.7
98.810.17
93.80.4
99.30.2
98.880.08
922
922
922
922
922
922
96.90.3
96.90.3
96.90.3
99.060.19
903
913
17
962
97.01.7
952
913
98.40.6
96.60.8
942
97.01.7
98.940.19
98.690.15
98.690.15
98.690.15
98.690.15
98.560.09
96.31.8
923
873
97.81.4
98.560.13
98.40.7
98.40.7
98.40.7
98.40.7
98.40.7
98.40.7
97.10.5
97.40.3
97.40.3
952
882
97.90.2
18
96.61.4
98.810.14
98.560.10
912
952
952
892
98.820.15
99.30.5
98.630.16
932
98.630.16
932
98.940.13
98.560.10
95.01.9
912
98.940.16
952
923
923
923
923
923
923
97.560.17
97.060.10
97.060.10
98.560.16
88.10.8
933
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
19
98.31.0
97.31.7
98.940.10
953
932
932
922
99.630.17
99.30.3
99.630.17
99.630.17
99.630.17
99.630.17
98.940.13
952
942
872
99.250.16
942
922
922
922
922
922
922
942
97.30.2
95.51.6
98.20.2
83.31.9
95.61.9
20
97.71.8
98.60.4
94.61.8
87.90.3
94.51.8
932
93.01.8
98.60.4
94.61.8
98.60.4
98.60.4
98.60.4
98.60.4
933
94.61.8
98.940.16
853
962
97.71.1
922
922
922
922
922
922
94.01.8
95.51.6
96.10.2
98.440.19
80.61.9
912
21
942
97.11.7
98.500.19
812
922
913
912
97.11.7
98.500.19
97.11.7
97.11.7
97.11.7
97.11.7
98.940.10
99.130.14
95.81.7
912
98.750.19
96.51.8
97.10.3
97.10.3
97.10.3
893
893
893
97.380.18
97.70.2
932
98.810.15
82.80.4
902
- 411 -
22
942
99.130.17
99.000.10
842
893
95.80.7
882
99.130.17
99.000.10
99.130.17
96.71.7
99.130.17
96.71.7
952
99.000.10
96.71.7
852
98.30.3
922
95.60.4
95.60.4
95.60.4
95.60.4
95.60.4
95.60.4
96.880.09
96.61.0
883
96.61.7
82.190.14
942
23
932
98.30.3
912
84.30.6
903
95.31.0
873
98.30.3
912
98.30.3
98.30.3
98.30.3
98.30.3
96.81.7
912
96.81.7
93.10.4
96.71.4
952
882
882
882
95.30.2
95.30.2
95.30.2
97.690.10
942
892
913
772
95.61.7
24
932
952
912
843
942
903
903
94.71.9
98.30.2
94.71.9
94.71.9
94.71.9
94.71.9
98.440.17
98.30.2
94.21.8
782
952
952
95.10.4
95.10.4
95.10.4
95.10.4
95.10.4
95.10.4
97.30.2
95.71.7
95.90.5
98.60.2
69.11.1
932
Mtodo
BL2
TEKA
CIB
TEKE
TEKC
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
BA 0.5
BA 0.6
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
25
922
98.440.14
96.61.7
803
933
902
903
98.440.14
96.61.7
98.440.14
913
98.440.14
98.440.14
903
96.61.7
912
81.30.5
932
97.70.7
91.51.7
91.51.7
91.51.7
91.51.7
91.51.7
91.51.7
97.30.3
902
93.31.6
98.190.15
68.80.9
932
26
922
95.61.6
942
81.40.7
932
882
902
98.310.13
942
98.310.13
98.310.13
98.310.13
98.310.13
903
942
912
81.11.9
94.81.7
942
892
893
893
893
893
893
94.31.6
902
95.60.2
942
67.31.4
923
27
903
98.000.16
98.500.14
79.10.2
942
922
893
98.000.16
98.500.13
98.000.16
98.000.16
98.000.16
98.000.16
92.440.06
98.500.14
792
792
932
98.000.16
94.10.5
94.10.5
94.10.5
94.10.5
94.10.5
94.10.5
96.690.16
94.60.7
93.31.6
98.000.16
62.40.5
922
- 412 -
28
92.000.13
94.500.13
892
71.10.4
96.810.15
873
89.91.0
94.500.13
892
94.500.13
902
94.500.13
902
892
892
76.91.8
76.41.4
92.90.3
94.500.13
903
903
903
903
903
903
942
95.500.08
922
94.500.13
64.3750
96.60.2
29
84.11.7
92.30.3
893
67.60.4
883
63.60.3
89.940.06
92.30.2
893
92.30.3
92.30.3
92.30.3
92.30.3
75.61.9
893
75.71.9
78.90.6
92.30.3
893
903
903
903
903
903
903
94.21.6
873
912
893
64.3750
882
30
64.3750
883
71.30.3
67.80.4
852
64.3750
842
883
91.000.10
883
71.30.3
883
883
71.30.3
71.30.3
71.30.3
78.01.3
71.30.3
91.000.10
91.000.10
91.000.10
91.000.10
91.000.10
91.000.10
91.000.10
91.000.10
763
92.51.3
91.000.10
64.3750
892
1
65.11.0
65.11.0
65.11.0
---65.11.0
65.11.0
65.11.0
65.11.0
66.01.3
66.01.3
66.01.3
66.01.3
65.70.4
63.91.0
65.50.7
71.50.8
63.20.6
2
65.41.2
65.41.2
66.40.9
---65.60.4
72.00.9
65.41.2
64.40.9
66.81.0
67.10.7
66.81.0
66.81.0
67.10.7
63.20.6
66.20.9
71.70.9
71.70.9
3
65.60.8
65.60.8
65.10.6
---66.70.9
72.30.8
65.60.8
65.10.6
67.70.8
65.70.5
67.70.8
67.70.8
66.60.9
65.60.6
64.30.8
72.20.4
70.60.9
4
65.90.7
65.90.7
66.00.8
---67.40.6
72.40.8
65.90.7
66.00.8
68.00.8
68.00.8
68.00.8
68.00.8
67.40.6
66.60.9
64.01.0
71.31.0
70.90.3
5
66.90.8
66.90.8
66.20.7
---66.90.5
71.81.1
65.70.9
64.70.6
66.90.5
66.90.5
66.90.5
66.90.5
66.90.5
65.41.0
67.01.0
69.90.6
70.20.4
6
66.41.1
66.40.6
66.30.8
---67.60.7
70.50.8
67.81.0
66.30.8
67.60.7
67.60.7
67.60.7
67.60.7
66.40.7
65.41.0
66.60.8
69.00.8
70.90.8
7
66.80.8
67.11.0
66.00.7
---66.70.8
72.71.4
67.10.9
66.00.7
66.70.8
66.70.8
66.70.8
66.70.8
66.00.7
66.60.7
66.21.1
69.20.7
70.81.0
8
66.80.8
66.31.0
65.60.5
---66.70.8
70.11.1
66.80.8
65.60.5
66.80.8
66.80.8
66.80.8
66.91.2
66.80.8
66.11.0
66.31.0
69.01.2
72.61.5
15
65.20.8
65.20.8
64.70.7
---67.40.9
66.30.9
65.20.8
65.51.0
65.20.8
65.20.8
65.20.8
65.20.8
66.40.6
66.60.7
66.80.6
72.00.9
72.00.8
16
64.90.7
67.10.9
64.80.7
---68.70.7
68.40.9
67.10.9
64.80.7
67.10.9
67.10.9
67.10.9
67.10.9
68.30.8
66.40.7
67.40.8
71.60.7
72.80.8
9
67.50.8
66.20.6
66.20.8
---67.50.8
74.41.0
67.50.8
67.60.6
65.20.6
65.20.6
65.20.6
65.20.6
66.31.1
68.91.2
65.10.9
69.11.2
69.41.1
10
67.30.8
67.30.8
65.20.5
---67.11.2
71.30.9
65.30.7
67.40.9
67.30.8
67.30.8
67.30.8
67.30.8
64.40.7
67.10.9
67.30.8
70.10.6
72.91.2
11
68.51.0
68.51.0
67.20.6
---68.51.0
74.01.4
65.50.8
64.70.6
68.51.0
68.51.0
68.51.0
68.51.0
65.40.7
66.90.8
65.70.6
73.21.8
72.50.7
12
65.30.4
65.30.4
66.00.7
---65.30.4
70.71.2
65.30.4
64.40.8
65.30.4
65.30.4
65.30.4
65.30.4
65.30.4
68.30.9
66.10.6
69.81.0
70.60.7
- 413 -
13
65.41.2
65.31.6
65.31.0
---64.40.3
70.01.0
65.31.6
64.40.8
65.41.2
65.41.2
65.41.2
65.41.2
65.41.2
68.40.5
67.00.7
71.01.2
72.90.8
14
66.20.5
66.20.5
64.50.9
---66.60.8
71.40.9
66.20.5
65.10.6
66.20.5
66.20.5
66.20.5
66.20.5
65.60.8
67.70.9
66.60.8
72.31.1
72.30.8
17
65.31.0
65.31.0
66.70.9
---66.10.4
69.21.1
65.31.0
66.70.9
65.31.0
65.31.0
65.31.0
65.31.0
67.50.7
66.30.8
66.80.6
69.90.6
71.60.9
18
67.40.5
67.40.5
65.70.6
---68.20.9
66.41.3
67.40.5
65.70.6
68.20.9
68.20.9
68.20.9
67.40.5
66.70.8
66.20.4
66.30.7
69.50.7
71.30.7
19
67.40.6
67.40.6
66.30.9
---65.90.6
67.80.9
67.40.6
66.30.9
66.70.5
66.70.5
66.70.5
66.70.5
66.80.9
67.80.7
66.80.9
67.80.6
70.20.4
20
64.30.8
64.30.8
66.70.4
---66.61.0
67.01.1
64.30.8
65.50.5
66.61.0
66.60.5
66.61.0
66.61.0
67.50.8
66.40.7
65.10.4
67.10.7
68.40.7
21
68.00.5
68.00.5
66.81.0
---68.20.6
68.51.1
68.00.5
67.21.2
68.00.5
68.00.5
68.00.5
68.00.5
66.20.5
66.00.6
66.40.6
65.40.6
69.70.7
22
66.70.7
66.70.7
66.70.7
---66.11.1
67.00.9
66.70.7
66.70.8
66.70.7
66.70.7
66.70.7
66.70.7
67.01.2
66.10.6
67.20.5
65.60.7
70.10.6
23
67.50.6
65.50.9
65.50.9
---64.60.7
66.91.0
64.60.7
64.60.7
64.60.7
64.60.7
64.60.7
64.60.7
64.60.7
64.10.6
66.10.4
67.00.7
68.60.9
24
68.40.5
68.40.5
67.51.0
---67.51.0
67.70.7
67.51.0
63.61.1
67.20.7
67.20.7
67.20.7
67.20.7
67.51.0
66.91.3
67.51.0
66.20.9
70.70.6
31
67.70.5
67.01.0
65.11.2
---64.90.5
65.40.6
67.70.5
65.11.2
67.70.5
67.70.5
67.70.5
67.70.5
66.40.4
66.70.4
67.70.4
69.90.6
68.60.9
32
66.30.8
67.10.5
69.20.7
---67.00.2
65.60.5
66.30.8
61.31.1
63.90.4
63.90.4
63.90.4
66.30.8
68.00.7
66.70.7
66.30.8
70.30.2
63.00.7
25
66.90.8
66.60.7
63.10.9
---63.10.9
67.90.7
66.90.8
68.20.9
66.90.8
66.90.8
66.90.8
66.90.8
69.90.5
63.61.2
66.90.8
66.80.7
69.20.5
26
65.10.6
65.10.6
62.20.7
---65.10.6
68.20.6
65.10.6
62.20.7
65.10.6
65.10.6
65.10.6
65.10.6
69.40.4
63.01.0
69.10.7
67.20.5
70.10.9
27
65.21.0
65.21.0
62.31.2
---65.21.0
66.40.6
65.21.0
64.60.7
65.21.0
65.21.0
65.21.0
65.21.0
69.10.5
65.20.5
68.70.5
65.90.8
68.40.7
28
68.61.0
61.30.9
64.81.8
---68.61.0
66.40.7
68.61.0
66.20.6
68.61.0
68.61.0
68.61.0
68.61.0
69.30.4
63.90.5
70.31.0
66.20.9
66.60.7
- 414 -
29
65.70.5
65.70.5
66.01.3
---66.10.5
65.50.6
65.70.5
66.11.1
65.70.5
65.70.5
65.70.5
65.70.5
68.20.5
68.60.5
71.50.4
623
66.80.7
30
67.80.6
66.40.7
62.21.7
---66.30.5
65.20.6
67.80.6
64.41.1
67.80.6
67.80.6
67.80.6
67.80.6
66.30.5
67.40.8
68.60.5
69.10.6
68.21.0
33
63.70.9
63.70.9
72.20.9
---64.30.6
69.20.7
63.70.9
64.31.1
64.00.9
64.00.9
64.00.9
64.00.9
65.10.7
64.80.8
70.50.6
67.61.1
64.30.8
34
61.40.6
72.00.9
74.60.5
---61.40.6
66.80.2
61.40.6
67.40.7
61.40.6
61.40.6
61.40.6
61.40.6
64.80.8
62.51.0
62.50.5
67.40.7
63.60.7
35
67.20.6
67.20.6
65.10.3
---60.60.5
61.80.5
67.20.6
67.00.5
67.20.6
67.20.6
67.20.6
67.20.6
62.80.8
64.40.5
64.60.9
67.00.5
66.10.4
36
62.30.9
62.30.9
65.40.2
---60.11.2
61.70.9
66.00.6
65.50.2
66.00.6
66.00.6
66.00.6
66.00.6
59.90.6
70.71.5
69.20.2
65.50.2
66.20.5
37
38
62.50.3 65.51.0
62.50.3 65.51.0
65.20.6 66.70
------66.00.5 65.51.0
62.10.7 60.50.4
62.50.3 65.51.0
65.20.6 66.70
62.50.3 65.51.0
62.50.3 65.51.0
62.50.3 65.51.0
62.50.3 65.51.0
64.60.5 69.81.1
60.20.8 65.51.0
69.00 72.530.12
65.20.6 66.70
68.70.7 69.81.1
39
64.40.6
64.40.6
66.70
---64.40.6
66.70
64.40.6
66.70
64.40.6
64.40.6
64.40.6
64.40.6
64.60.5
66.70
66.70
66.70
66.70
1
672
672
63.51.7
68.30.4
672
692
672
60.11.3
672
672
672
672
672
56.91.4
672
672
----
2
57.71.0
57.71.0
54.90.5
62.01.1
652
63.40.9
57.71.0
56.30.8
652
652
652
652
57.71.0
60.41.3
652
69.50.2
----
3
55.70.6
55.70.6
550.5
52.60.4
67.41.6
60.60.7
55.70.6
54.50.5
55.70.6
55.70.6
55.70.6
55.70.6
55.70.6
60.60.8
55.70.6
662
----
- 415 -
4
57.41.1
57.41.1
51.30.4
51.40.8
54.90.5
57.91.4
57.41.1
53.90.5
57.41.1
57.41.1
57.41.1
57.41.1
54.90.5
57.41.1
54.90.5
57.51.1
----
5
50.400.16
50.400.16
50.400.16
51.30.5
58.50.8
58.50.8
50.400.16
50.400.16
50.400.16
50.400.16
50.400.16
50.400.16
53.50.6
50.400.16
53.50.6
570.8
----
6
50.50.6
50.50.6
540
54.30.4
55.50.5
55.50.5
50.50.6
540
50.50.6
50.50.6
50.50.6
50.50.6
57.60.8
50.50.6
50.50.6
54.30.4
----
4
88.20.3
88.20.3
87.90.4
---88.20.3
844
88.20.3
853
88.20.3
88.20.3
88.20.3
88.20.3
775
86.10.3
88.20.3
752
843
5
832
852
805
---833
815
833
853
852
852
842
852
87.00.4
794
852
703
833
6
7
8
86.51.7
853
853
86.51.7
853
853
843
86.80.2
804
---------86.51.7
853
853
853
853
853
86.51.7
853
853
814
745
843
86.51.7
853
853
86.51.7
853
853
86.51.7
853
853
86.51.7
853
853
86.80.3 87.50.3
843
823
823
823
88.20.3
843
804
742
76.01.1 76.81.2
715
804
804
11
814
853
843
---814
755
814
833
814
814
814
814
814
843
843
704
824
12
13
88.100.07
880
88.100.07
880
832
813
------88.100.07
880
855
880
88.100.07
880
832
853
88.100.07
880
88.100.07
880
88.100.07
880
88.100.07
880
785
853
832
814
852
880
743
76.70.5
853
853
- 416 -
14
85.81.5
880
85.81.5
---85.81.5
880
85.81.5
85.81.5
85.81.5
85.81.5
85.81.5
85.81.5
85.81.5
880
85.81.5
65.71.3
85.81.5
15
880
880
723
---880
880
880
880
880
880
880
880
880
61.10.7
880
68.30.5
880
1
443
443
443
443
443
402
443
443
443
443
443
443
443
443
493
524
----
2
554
554
493
493
554
43.11.4
554
493
554
554
554
554
554
554
493
432
----
3
454
454
474
474
454
43.71.5
454
36.11.4
454
454
454
454
474
454
454
362
----
4
493
493
493
434
493
43.91.5
493
524
493
493
493
493
474
493
493
392
----
5
473
515
463
484
473
49.51.9
515
463
473
473
473
473
473
473
473
41.70.8
----
7
443
443
473
45.91.9
443
45.91.9
443
464
443
443
443
443
473
463
443
37.51.3
----
8
493
493
493
564
493
49.91.0
493
493
493
493
493
463
523
493
493
42.70.7
----
- 417 -
9
563
563
563
555
563
43.81.5
563
563
563
563
563
563
563
563
563
37.30.9
----
10
603
603
603
603
603
37.21.5
603
603
603
603
603
603
37.21.5
603
603
37.50
----
6
514
514
483
463
514
43.11.9
514
484
514
514
514
514
514
514
514
40.21.3
----
1
752
752
752
742
752
742
752
752
763
763
763
752
752
752
752
742
732
2
3
4
5
6
7
762
742
674
742
79.11.0
764
762
714
674
742
79.11.0
764
763
742
674
733
74.41.7
742
733
78.70.5
714
752
752
704
763
742
674
742
79.11.0
764
752
673
723
64.01.2 66.21.4 65.21.0
762
742
674
742
79.11.0
764
763
80.80.3
743
763
79.11.0
742
762
714
674
742
79.11.0
764
762
714
674
742
79.11.0
764
762
714
674
742
79.11.0
764
762
742
674
742
79.11.0
764
762
742
674
742
74.41.7
773
76.30.6
682
663
623
643
722
733
714
74.51.6
742
74.41.7
773
722
682
672
622
65.71.4 61.01.3
753
783
704
744
764
733
8
723
723
723
723
723
67.10.7
723
723
723
723
723
723
723
683
723
63.01.5
77.10.7
9
773
773
773
674
773
66.80.7
773
773
773
773
773
773
773
683
763
60.70.9
762
10
732
732
74.01.5
73.70.6
732
63.71.7
732
74.40.5
732
732
732
732
732
62.41.0
722
63.60.6
70.50.4
- 418 -
11
713
713
713
713
713
663
713
713
713
713
713
713
713
663
742
62.80.6
642
12
67.21.6
67.21.6
603
652
67.21.6
682
67.21.6
652
67.21.6
67.21.6
67.21.6
67.21.6
67.21.6
682
76.40.5
62.91.7
67.21.6
13
68.51.6
68.51.6
662
732
68.51.6
662
68.51.6
662
68.51.6
68.51.6
68.51.6
68.51.6
68.51.6
662
68.51.6
64.80.6
662
1
75.240.17
75.240.17
75.240.17
75.60.2
75.50.3
78.50.4
75.50.3
75.240.17
75.50.3
75.50.3
75.50.3
75.50.3
75.240.17
75.40.3
75.240.17
66.30.6
76.30.3
2
75.720.18
76.10.2
75.720.18
74.71.1
75.720.18
69.70.7
75.720.18
76.10.2
75.720.18
75.720.18
75.720.18
75.720.18
75.720.18
75.640.19
76.10.2
69.70.7
76.70.2
3
76.760.15
76.760.15
76.760.15
75.040.19
74.41.1
67.00.5
76.760.15
73.71.4
76.760.15
76.760.15
76.760.15
76.760.15
76.760.15
74.70.2
76.760.15
69.01.1
75.81.2
4
77.00.2
77.00.2
77.00.2
74.30.3
77.00.2
69.50.7
77.00.2
77.00.2
77.00.2
77.00.2
77.00.2
77.00.2
77.00.2
74.20.8
77.00.2
70.80.9
76.90.2
5
76.560.09
76.560.09
76.560.09
75.10.3
76.560.09
67.30.8
76.560.09
76.560.09
76.560.09
76.560.09
76.560.09
76.560.09
76.560.09
75.20.2
76.560.09
70.80.9
76.21.2
6
75.520.10
77.320.18
75.520.10
75.520.10
75.520.10
65.30.4
75.520.10
75.520.10
75.520.10
75.520.10
75.530.10
75.520.10
75.520.10
75.520.10
77.320.18
68.00.9
77.320.18
- 419 -
7
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
65.60.3
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
75.760.14
74.00.3
75.760.14
65.60.8
75.760.14
8
74.40
74.40
74.40
74.40
74.40
63.10.5
74.40
74.40
74.40
74.40
74.40
74.40
74.40
63.10.5
74.40
65.20
74.40
1
94.40.3
94.40.3
904
93.70.2
94.40.3
93.01.6
94.40.3
94.40.3
94.40.3
94.40.3
94.40.3
94.40.3
904
94.20.4
92.81.6
91.30.6
912
2
3
4
876
923 94.60.2
876
923 94.60.2
876
923
913
93.40.2 874
903
876
923 94.60.2
91.60.3 864
844
876
923 94.60.2
876
923
913
876
923 94.60.2
876
923 94.60.2
876
923 94.60.2
876
923 94.60.2
876
923 94.60.2
95.20.2 94.40.4 913
913
923
913
91.00.2 91.70.6 91.60.3
913 94.60.4 94.70.9
5
903
913
93.60.5
91.70.3
903
89.70.3
903
93.60.5
903
903
903
903
903
913
884
92.20.6
95.30.4
6
93.50.3
913
93.50.3
903
93.50.3
873
93.50.3
913
93.50.3
93.50.3
93.50.3
93.50.3
913
923
93.80.6
90.90.4
923
7
93.80.6
93.80.6
93.60.4
903
93.80.6
843
93.80.6
93.80.6
93.80.6
93.80.6
93.80.6
93.80.6
93.80.6
923
923
91.00.5
884
8
913
913
913
93.40.3
913
93.40.5
913
913
913
913
913
913
894
95.20.3
913
863
94.50.2
9
94.50.5
923
923
93.20.3
94.50.5
913
94.50.5
923
94.50.5
94.50.5
94.50.5
94.50.5
94.30.2
94.70.2
94.50.5
87.80.4
94.70.2
10
904
94.50.4
884
884
904
92.70.7
904
884
904
904
904
904
91.41.8
95.20.3
91.41.8
88.90.4
95.60.3
11
12
95.60.5
912
95.60.5
912
913
95.70.3
93.50.2
913
95.60.5
912
903
883
95.60.5
912
913
913
95.60.5
912
95.60.5
912
95.60.5
912
95.60.5
912
95.60.5
933
903
883
95.60.5
933
89.00.5
863
94.90.2 93.51.6
- 420 -
13
14
15
16
922
940
930 88.81.7
922
940
930 88.81.7
922
940
872 88.81.7
913
940
930 88.81.7
922
940
930 88.81.7
91.30.4 90.10.6 90.20.2 690
922
940
930 88.81.7
922
940
872 88.81.7
922
940
930 88.81.7
922
940
930 88.81.7
922
940
930 88.81.7
922
940
930 88.81.7
922
940
930 88.81.7
91.30.4
910
90.20.2 690
922
940
930 88.81.7
873
89.100.10 890
840
922
92.900.17 872
900
1
952
952
953
953
952
98.70.6
952
952
952
952
952
952
952
952
96.41.6
953
98.70.6
2
98.750.19
98.750.19
97.71.0
953
98.880.13
96.01.5
98.750.19
98.10.4
98.750.19
98.750.19
98.750.19
98.750.19
98.10.4
98.10.4
98.690.17
925
96.01.5
3
98.880.16
98.880.16
97.80.8
953
925
96.41.9
98.880.16
97.80.8
98.880.16
98.880.16
98.880.16
98.880.16
98.10.4
97.80.8
925
953
99.10.3
4
99.250.08
99.250.08
99.060.10
953
98.880.08
98.250.16
99.250.08
98.630.13
99.250.08
99.250.08
99.30.08
99.250.08
98.60.2
98.30.4
98.40.4
98.30.5
963
5
953
953
98.60.2
963
98.50.2
99.310.06
953
953
953
953
953
953
98.60.2
98.630.18
925
953
953
6
98.60.3
98.60.3
98.880.13
98.00.4
98.40.5
924
98.60.3
98.880.13
98.60.3
98.60.3
98.60.3
98.60.3
98.60.3
99.060.14
925
98.20.4
98.630.13
11
99.000.17
99.000.17
953
97.90.4
97.91.0
933
99.000.17
953
99.000.17
99.000.17
99.000.17
99.000.17
953
98.690.17
953
923
95.20.3
12
98.60.3
98.60.3
953
953
97.61.0
914
98.60.3
953
98.60.3
98.60.3
98.60.3
98.60.3
98.500.19
98.810.17
99.130.17
943
894
7
98.630.18
98.630.18
98.940.13
885
925
953
98.620.18
98.940.13
98.620.18
98.620.18
98.620.18
98.620.18
953
963
963
885
96.20.8
8
97.90.8
97.90.8
953
953
98.10.9
953
97.90.8
98.30.6
97.90.8
97.90.8
97.90.8
97.90.8
98.30.3
99.130.10
99.380.16
914
875
9
97.31.2
97.31.2
99.060.14
98.380.19
963
944
97.31.2
99.250.13
97.31.2
97.31.2
97.31.2
97.31.2
98.750.16
934
924
915
943
- 421 -
10
963
963
98.50.6
98.500.19
99.060.14
943
963
98.70.3
963
963
963
963
98.500.19
98.60.2
99.10.3
914
933
13
97.41.7
97.41.7
99.250.13
97.80.5
98.940.16
845
97.41.7
99.380.16
97.41.7
97.41.7
97.41.7
97.41.7
98.310.19
98.880.08
97.41.7
855
923
14
98.10.9
98.10.9
952
97.40.6
953
96.90.3
98.10.9
953
98.10.9
98.10.9
98.10.9
98.10.9
98.690.17
953
98.940.10
913
903
15
97.21.7
97.21.7
98.60.2
875
97.90.7
894
97.21.7
98.60.2
97.21.7
97.21.7
97.21.7
97.21.7
98.630.16
885
97.21.7
884
92.10.8
16
925
925
98.20.2
96.70.3
98.940.13
913
925
98.20.2
925
925
925
925
98.30.3
953
98.810.17
884
873
17
953
953
952
933
98.880.13
865
953
952
953
953
953
953
934
923
923
913
93.380.10
18
906
906
98.560.10
96.20.3
98.630.16
93.41.1
906
98.560.10
906
906
906
906
953
98.560.10
885
903
874
23
98.30.3
953
912
924
98.60.2
823
98.30.3
912
98.30.3
98.30.3
98.30.3
98.30.3
915
912
96.81.7
772
82.80.7
24
952
952
912
875
98.440.17
852
952
98.30.2
952
952
952
952
904
98.30.2
94.21.8
79.30.4
773
19
99.630.17
99.630.17
98.940.10
95.60.3
99.630.17
933
99.630.17
98.940.10
99.630.17
99.630.17
99.630.17
99.630.17
953
952
962
91.21.5
92.51.4
20
98.60.4
98.60.4
94.61.8
893
934
92.310.16
98.60.4
94.61.8
98.60.4
98.60.4
98.60.4
98.60.4
98.20.2
94.61.8
98.60.4
80.70.5
863
21
97.11.7
97.11.7
98.500.19
923
97.40.5
85.31.8
97.11.7
98.500.19
97.11.7
97.11.7
97.11.7
97.11.7
953
98.500.19
95.81.7
78.81.6
85.31.8
- 422 -
22
99.130.17
99.130.17
953
904
98.380.17
862
99.130.17
953
99.130.17
99.130.17
99.130.17
99.130.17
97.90.3
99.000.10
962
78.11.9
822
25
98.440.14
98.440.14
96.61.7
923
913
853
98.440.14
96.61.7
98.440.14
98.440.14
98.440.14
98.440.14
913
953
93.90.2
78.11.6
81.70.7
26
98.310.13
98.310.13
942
923
904
863
98.310.13
942
98.310.13
98.310.13
98.310.13
98.310.13
912
942
903
762
80.91.8
27
98.000.16
98.000.16
874
94.880.13
923
872
98.000.16
874
98.000.16
98.000.16
98.000.16
98.000.16
94.880.13
98.500.14
874
78.560.13
74.21.2
- 423 -
28
94.500.13
94.500.13
892
892
864
843
94.500.13
892
94.500.13
94.500.13
94.500.13
94.500.13
923
892
864
76.81.4
75.51.2
29
92.30.3
92.30.3
893
75.71.9
92.30.3
843
92.30.3
893
92.30.3
92.30.3
92.30.3
92.30.3
893
893
75.71.9
76.91.4
68.10.9
30
71.30.3
71.30.3
71.30.3
71.30.3
71.30.3
78.060.06
71.30.3
71.30.3
71.30.3
71.30.3
71.30.3
71.30.3
71.30.3
71.30.3
71.30.3
62.80.5
64.10.7
Mtodo BL2
LE
AB, BL, BN, BU, D1, GL, HE, M1, M2, M3, PI, VO,
CR, WD
AB, BU, CR, GL, HE, M1, PI
D1, M2, M3
BL, BN, VO, WD
BU, D1, GL, HE, PI, VO, WD
M2, M3,
AB, BL, LE, M1, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BL, BN
BN, CR, WD
AB, BU, D1, GL, HE, M1, M2, M3, PI, VO
BL, LE
BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
AB, BL, BN
BN, GL, HE, VO, WD
AB, BU, D1, M1, M2, M3, PI
BL, CR, LE
AB, BN, BU, CR, D1, GL, HE, PI, VO, WD
M1, M2, M3
BL, LE
BN, CR, D1, HE, LE, PI, VO, WD
AB, BU, GL, M1, M2, M3
BL
BN, CR, D1, HE, LE, PI, VO, WD
BU, GL, M1, M2, M3
AB, BL
BN, CR, D1, HE, LE, PI, VO, WD
AB, BU, GL, M1, M2, M3
BL
BN, CR, HE, PI, VO, WD
AB, BU, D1, GL, LE, M1, M2, M3
BL
BN, CR, GL, LE, PI, VO
BU, D1, M1, M2, M3
AB, BL, HE, WD
CR, HE, PI
BL, BU, D1, GL, M1, M2, M3
AB, BN, LE, VO, WD
CR, HE
AB, BU, D1, GL, M1, M2, M3, PI
BL, BN, LE, VO, WD
AB, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BL
AB, BN, BU, CR, D1, HE, LE, M1, PI, VO, WD
GL, M2, M3
BL
CR, HE, PI, WD
M1, M2
BN, LE, VO
- 424 -
Iguales:
Peor BL2:
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
Mejor BL2:
Iguales:
Peor BL2:
- 425 -
Mejor TEKA:
Iguales:
Peor TEKA:
TEKE Mejor TEKA:
Iguales:
Peor TEKA:
TEKC Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
DEV
Iguales:
Peor TEKA:
DER3 Mejor TEKA:
Iguales:
Peor TEKA:
TEKB Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
TEK
Iguales:
Peor TEKA:
Mejor TEKA:
BL1
Iguales:
Peor TEKA:
Mejor TEKA:
CLO
Iguales:
Peor TEKA:
Mejor TEKA:
PRI
Iguales:
Peor TEKA:
Mejor TEKA:
SAN
Iguales:
Peor TEKA:
DER2 Mejor TEKA:
Iguales:
Peor TEKA:
MAO Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
UTA
Iguales:
Peor TEKA:
Mejor TEKA:
LEE
Iguales:
Peor TEKA:
BOW Mejor TEKA:
Iguales:
Peor TEKA:
YOU Mejor TEKA:
Iguales:
Peor TEKA:
CIB
Mtodo TEKA
- 426 -
Iguales:
Peor TEKA:
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
Mejor TEKA:
Iguales:
Peor TEKA:
- 427 -
Mtodo CIB
- 428 -
Iguales:
Peor CIB:
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
Mejor CIB:
Iguales:
Peor CIB:
- 429 -
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mtodo TEKE
- 430 -
Iguales:
Peor TEKE:
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
Mejor TEKE:
Iguales:
Peor TEKE:
BU, D1
AB, M1, M2, M3, WD
BL, D1
BU, HE, PI
- 431 -
DEV
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mtodo TEKC
BN, WD
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO
AB, BN, CR, GL, HE, M1, M3, PI, VO
BL, BU, M2
D1, LE, VO
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BL, BN
M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN
AB, BL, HE, M2
BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
HE
BL, BN, M2
AB, BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
AB, BL, BN, CR, GL, HE, LE, M1, M3, PI, VO, WD
BU, D1, M2
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN
M2
CR, HE, LE, M1, PI, VO, WD
- 432 -
BN, HE, WD
BL, BU, M2
AB, CR, D1, GL, LE, M1, M3, PI, VO
Iguales:
Peor TEKC:
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
Mejor TEKC:
Iguales:
Peor TEKC:
- 433 -
DER3
TEKB
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mtodo DEV
BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BL, M2
AB, BN
BN, GL, HE, LE, VO
AB, BL, BU, D1, M1, M2, M3, PI
CR, WD
AB, BN, BU, D1, GL, HE, PI, VO, WD
BL, CR, LE, M1, M2, M3
BN, D1, HE, LE, PI, VO
AB, BL, BU, CR, GL, M1, M2, M3
WD
BN, D1, HE, LE, PI, VO
BL, BU, CR, GL, M1, M2, M3
AB, WD
BN, D1, HE, LE, PI, VO
AB, BL, BU, CR, GL, M1, M2, M3
WD
BN, HE, LE, PI, VO
AB, BU, CR, D1, GL, M1, M2, M3
BL, WD
BN, GL, LE, PI, VO
BL, BU, D1, M1, M2, M3
AB, CR, HE, WD
CR, D1, HE, PI
BL, BU, GL, M1, M2, M3
AB, BN, LE, VO, WD
HE, LE
AB, BL, BU, D1, GL, M1, M2, M3, PI
BN, CR, VO, WD
AB, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BL
AB, BN, BU, D1, HE, LE, M1, PI, VO
BL, GL, M2, M3
CR, WD
HE, LE, PI, WD
CR, M1, M2
BN, VO
- 434 -
Iguales:
Peor DEV:
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
Mejor DEV:
Iguales:
Peor DEV:
- 435 -
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
MtodoDER3
AB, BN, LE
BL, M2
BU, CR, D1, GL, HE, M1, M3, PI, VO, WD
AB, BN
BL, M2
BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
AB, BN
BL, HE, M2
BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
AB, BN
BL, HE, M2
BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
AB, BL, BN, LE
M2
BU, CR, D1, GL, HE, M1, M3, PI, VO, WD
BN
BL, M2
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BL, M2
AB, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
AB
BL, M2
BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BL, CR, D1, GL, HE, LE, M1, M3, PI
BU, M2
AB, BN, VO, WD
AB, BN
BL, M2
BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
LE
M2
BN, CR, HE, M1, PI, VO, WD
- 436 -
AB
BL, BU, LE, M2, WD
BN, CR, D1, GL, HE, M1, M3, PI, VO
AB, HE
BL, BU, LE, M2, WD
BN, CR, D1, GL, M1, M3, PI, VO
AB, HE
BL, BU, LE, M2, WD
BN, CR, D1, GL, M1, M3, PI, VO
AB, HE
BL, BU, LE, M2, WD
BN, CR, D1, GL, M1, M3, PI, VO
AB, HE
BL, BU, LE, M2, WD
BN, CR, D1, GL, M1, M3, PI, VO
AB, HE
BL, BU, LE, M2, WD
BN, CR, D1, GL, M1, 3, PI, VO
LE, WD
BL, HE, M2
AB, BN, BU, CR, D1, GL, M1, M3, PI, VO
AB, BN, LE
BL, M2
BU, CR, D1, GL, HE, M1, M3, PI, VO, WD
GL
BL, M2
AB, BU, D1, HE, M1, M3, PI, VO, WD
Iguales:
Peor DER3:
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
Mejor DER3:
Iguales:
Peor DER3:
M2
BN, BU, CR, HE, LE, M1, M3, PI, VO, WD
BL, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BN, BU, LE, WD
CR, D1, HE, PI
BL
AB, BU, M1, M2, M3, WD
- 437 -
TEK
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
MtodoTEKB
- 438 -
Iguales:
Peor TEKB:
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
Mejor TEKB:
Iguales:
Peor TEKB:
- 439 -
BL1
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
MtodoTEK
BN, HE
BL, CR, D1, M1, M2, M3
AB, BU, GL, LE, PI, VO, WD
BN, VO,
BL, CR, D1, M1, M2, M3
AB, BU, GL, HE, LE, PI, WD
BN, HE
BL, CR, D1, M1, M2, M3
AB, BU, GL, LE, PI, VO, WD
BN
CR, M1, M2, M3
AB, BL, BU, D1, GL, HE, LE, PI, VO, WD
WD
BL, GL, M1, M2, M3
AB, BN, BU, CR, D1, HE, LE, PI, VO
CR, HE, WD
BL, M1, M2, M3, PI
AB, BN, BU, D1, GL, LE, VO
HE
BL, M1, M2, M3
AB, BN, BU, CR, D1, GL, LE, PI, VO, WD
AB, BL, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BN
BN, HE, M1
AB, BL, BU, D1, M2, M3, VO
CR, GL, LE, PI, WD
WD
CR, HE, M1, M2
BN, LE, PI, VO
- 440 -
BU, HE, WD
BL, M2, M3
AB, BN, CR, D1, GL, LE, M1, PI, VO
Iguales:
Peor TEK:
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
Mejor TEK:
Iguales:
Peor TEK:
- 441 -
CLO
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
MtodoBL1
BL, BN, BU, CR, D1, GL, LE, M1, M2, M3, PI, VO, WD
AB, HE
BN
AB, BL, BU, CR, D1, GL, HE, LE, M1, M2, M3, PI, VO, WD
BL, HE, LE, PI
AB, BN, BU, CR, GL, M1, M2, M3, VO, WD
D1
GL, WD
BL, BU, LE, M1, M2, M3, PI
BN, CR, D1, HE, VO
AB, CR, HE, PI, WD
BL, BU, D1, GL, M1, M2, M3
BN, LE, VO
AB, BL, BU, GL, LE, M1, M2, M3
BN, CR, D1, HE, PI, VO, WD
AB, BL, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BN
AB, BU, M1, PI
BL, BN, D1, GL, M2, M3, WD
CR, HE, LE, VO
PI, WD
CR, M1, M2
BN, HE, LE, VO
- 442 -
Iguales:
Peor BL1:
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
Mejor BL1:
Iguales:
Peor BL1:
- 443 -
PRI
SAN
DER2
MAO
UTA
LEE
BOW
YOU
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
MtodoCLO
AB, BN, HE
BL, BU, CR, D1, GL, LE, M1, M2, M3, PI, VO, WD
AB, LE, PI
BN, BU, CR, GL, HE, M1, M2, M3, VO, WD
BL, D1
AB, GL, WD
BL, BU, LE, M1, M2, M3, PI
BN, CR, D1, HE, VO
AB, CR, HE, PI, WD
BL, BU, D1, GL, M1, M2, M3
BN, LE, VO
AB
BL, BU, GL, LE, M1, M2, M3
BN, CR, D1, HE, PI, VO, WD
AB, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BL, BN
AB, BU, M1, PI
BL, BN, D1, GL, M2, M3, WD
CR, HE, LE, VO
HE, PI, WD
CR, M1, M2
BN, LE, VO
- 444 -
Iguales:
Peor CLO:
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
Mejor CLO:
Iguales:
Peor CLO:
- 445 -
Mejor PRI:
Iguales:
Peor PRI:
DER2 Mejor PRI:
Iguales:
Peor PRI:
MAO Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
UTA
Iguales:
Peor PRI:
Mejor PRI:
LEE
Iguales:
Peor PRI:
BOW Mejor PRI:
Iguales:
Peor PRI:
YOU Mejor PRI:
Iguales:
Peor PRI:
BA 0.5 Mejor PRI:
Iguales:
Peor PRI:
BN, LE, PI
AB, BU, CR, GL, M1, M2, M3, VO, WD
BL, D1, HE
AB, GL, WD
BL, BU, LE, M1, M2, M3, PI
BN, CR, D1, HE, VO
AB, CR, HE, PI, WD
BL, BU, D1, GL, M1, M2, M3
BN, LE, VO
SAN
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
Mejor PRI:
Iguales:
Peor PRI:
- 446 -
Mejor SAN:
Iguales:
Peor SAN:
MAO Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
UTA
Iguales:
Peor SAN:
Mejor SAN:
LEE
Iguales:
Peor SAN:
BOW Mejor SAN:
Iguales:
Peor SAN:
YOU Mejor SAN:
Iguales:
Peor SAN:
BA 0.5 Mejor SAN:
Iguales:
Peor SAN:
GL, WD
BU, D1, M1, M2, M3
AB, BL, BN, CR, HE, LE, PI, VO
CR, HE, PI, WD
BU, D1, GL, M1, M2, M3
AB, BL, BN, LE, VO
DER2
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
Mejor SAN:
Iguales:
Peor SAN:
- 447 -
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
UTA
Iguales:
Peor DER2:
Mejor DER2:
LEE
Iguales:
Peor DER2:
BOW Mejor DER2:
Iguales:
Peor DER2:
YOU Mejor DER2:
Iguales:
Peor DER2:
BA 0.5 Mejor DER2:
Iguales:
Peor DER2:
MAO
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
Mejor DER2:
Iguales:
Peor DER2:
- 448 -
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
LEE
Iguales:
Peor MAO:
BOW Mejor MAO:
Iguales:
Peor MAO:
YOU Mejor MAO:
Iguales:
Peor MAO:
BA 0.5 Mejor MAO:
Iguales:
Peor MAO:
HE
BL, BU, D1, GL, M1, M2, M3
AB, BN, CR, LE, PI, VO, WD
AB, BL, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
UTA
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
Mejor MAO:
Iguales:
Peor MAO:
- 449 -
Mejor UTA:
Iguales:
Peor UTA:
BOW Mejor UTA:
Iguales:
Peor UTA:
YOU Mejor UTA:
Iguales:
Peor UTA:
BA 0.5 Mejor UTA:
Iguales:
Peor UTA:
AB, BL, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
LEE
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
Mejor UTA:
Iguales:
Peor UTA:
- 450 -
BOW
Mejor LEE:
Iguales:
Peor LEE:
YOU Mejor LEE:
Iguales:
Peor LEE:
BA 0.5 Mejor LEE:
Iguales:
Peor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
Mejor LEE:
Iguales:
Peor LEE:
MtodoLEE
BN
M2
AB, BL, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
M2
BN, CR, HE, LE, M1, PI, VO, WD
M2
AB, BL, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
HE, M2
AB, BL, BN, BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
HE, M2
AB, BL, BN, BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
HE, M2
AB, BL, BN, BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
HE, M2
AB, BL, BN, BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
HE, M2
AB, BL, BN, BU, CR, D1, GL, LE, M1, M3, PI, VO, WD
M2
AB, BL, BN, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO, WD
BN, WD
M2
AB, BL, BU, CR, D1, GL, HE, LE, M1, M3, PI, VO
WD
M2
AB, BL, BU, D1, GL, HE, M1, M3, PI, VO
HE, M2
BN, BU, CR, LE, M1, M3, PI, VO, WD
CR, GL, HE, M3, PI
BL, M1, M2, VO
AB, BN, BU, D1, LE, WD
AB, WD
D1
BL, BU, CR, HE, M1, M2, M3, PI
- 451 -
Mejor BOW:
Iguales:
Peor BOW:
BA 0.5 Mejor BOW:
Iguales:
Peor BOW:
CR, LE, WD
M2, PI
BN, HE, M1, VO
BU, CR, HE, LE, VO, WD
BL, GL, M2, M3
AB, BN, D1, M1, PI
YOU
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
Mejor BOW:
Iguales:
Peor BOW:
- 452 -
Iguales:
Peor YOU:
BA 0.7
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
Mejor YOU:
Iguales:
Peor YOU:
M1, M2
- 453 -
HE, VO
AB, BL, BN, BU, CR, D1, GL, LE, M1, M2, M3, PI, WD
BA 0.7
HE, VO
AB, BL, BN, BU, CR, D1, GL, LE, M1, M2, M3, PI, WD
BA 0.8
BA 0.9
BA 1
CHI
SET
GD_DS
RLF
SCH
FUZ
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
Mejor BA 0.5:
Iguales:
Peor BA 0.5:
CR, HE, VO
AB, BL, BN, BU, D1, GL, LE, M1, M2, M3, PI, WD
AB, CR, HE, VO
BL, BU, D1, GL, LE, M1, M2, M3, PI, WD
BN
AB, CR, HE
BL, BU, D1, GL, LE, M1, M2, M3, PI, WD
BN, VO
BN, BU, CR, HE, LE, M1, VO, WD
BL, D1, GL, M2, M3, PI
AB
AB, BN, GL, LE, M1, VO
BL, D1, M2, M3, PI
BU, CR, HE, VO
GL, WD
BL, D1, M1, M2, M3
AB, BU, HE, PI, VO
BN, HE, M1, PI, VO
M2, M3
BU, CR, LE, WD
BL, BN, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BU, LE, WD
CR, D1, HE, M1, M3, PI, WD
BL
AB, BU, M2
- 454 -
Mtodo BA 0.6
AB, BL, BN, BU, CR, D1, GL, LE, M1, M2, M3, PI, VO, WD
HE
CR
AB, BL, BN, BU, D1, GL, LE, M1, M2, M3, PI, VO, WD
HE
AB, CR
BL, BU, D1, GL, LE, M1, M2, M3, PI, WD
BN, HE, VO
AB, CR
BL, BU, D1, GL, LE, M1, M2, M3, PI, WD
BN, HE, VO
BN, BU, CR, LE, M1, WD
BL, D1, GL, HE, M2, M3, PI
AB, VO
AB, BN, GL, LE, M1
BL, D1, M2, M3, PI
BU, CR, HE, VO, WD
GL, WD
BL, D1, M1, M2, M3
AB, BU, HE, PI, VO
BN, M1, PI, VO
M2, M3
BU, CR, HE, LE, WD
BL, BN, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BU, LE, WD
CR, D1, HE, M1, M3, PI, WD
BL
AB, BU, M2
- 455 -
Mtodo BA 0.7
CR
AB, BL, BN, BU, D1, GL, HE, LE, M1, M2, M3, PI, VO, WD
AB, CR
BL, BU, D1, GL, HE, LE, M1, M2, M3, PI, WD
BN, VO
AB, CR
BL, BU, D1, GL, HE, LE, M1, M2, M3, PI, WD
BN, VO
BN, BU, CR, LE, M1, WD
BL, D1, GL, M2, M3, PI
AB, HE, VO
AB, BN, GL, LE, M1
BL, D1, M2, M3, PI
BU, CR, HE, VO, WD
GL, WD
BL, D1, M1, M2, M3
AB, BU, HE, PI, VO
BN, M1, PI, VO
HE, M2, M3
BU, CR, LE, VO
BL, BN, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BU, LE, WD
CR, D1, M1, M3, PI, WD
BL
AB, BU, HE, M2
Mtodo BA 0.8
AB
BL, BU, CR, D1, GL, HE, LE, M1, M2, M3, PI, WD
BN, VO
AB
BL, BU, CR, D1, GL, HE, LE, M1, M2, M3, PI, WD
BN, VO
BN, BU, CR, LE, M1, WD
BL, D1, GL, M2, M3, PI
AB, HE, VO
AB, BN, GL, LE, M1
BL, D1, M2, M3, PI
BU, CR, HE, VO, WD
GL, WD
BL, D1, M1, M2, M3
AB, BU, HE, PI, VO
BN, M1, PI, VO
HE, M2, M3
BU, CR, LE, WD
BL, BN, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BU, LE, WD
CR, D1, M1, M3, PI, VO
BL
AB, BU, HE, M2
- 456 -
BA 1
Mtodo BA 0.9
AB, BL, BN, BU, CR, D1, GL, HE, LE, M1, M2, M3, PI, VO, WD
BN, BU, CR, LE, M1, WD
BL, D1, GL, M2, M3, PI
AB, HE, VO
AB, BN, GL, LE, M1
BL, D1, M2, M3, PI
BU, CR, HE, VO, WD
GL, WD
BL, D1, M1, M2, M3
AB, BU, HE, PI, VO
BN, M1, PI
HE, M2, M3
BU, CR, LE, VO, WD
BL, BN, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BU, LE, WD
CR, D1, M1, M3, PI, WD
BL
AB, BU, HE, M2
Mtodo BA 1
CHI
Mejor BA 1:
Iguales:
Peor BA 1:
Mejor BA 1:
SET
Iguales:
Peor BA 1:
GD_DS Mejor BA 1:
Iguales:
Peor BA 1:
Mejor BA 1:
RLF
Iguales:
Peor BA 1:
Mejor BA 1:
SCH
Iguales:
Peor BA 1:
Mejor BA 1:
FUZ
Iguales:
Peor BA 1:
Mejor CHI:
Iguales:
Peor CHI:
GD_DS Mejor CHI:
Iguales:
Peor CHI:
Mejor CHI:
RLF
Iguales:
Peor CHI:
Mejor CHI:
SCH
Iguales:
Peor CHI:
Mejor CHI:
FUZ
Iguales:
Peor CHI:
AB, BN, GL
BL, D1, M1, M2, M3, PI, VO
BU, CR, HE, LE, WD
GL, WD
BL, D1, HE, M2, M3
AB, BU, M1, PI, VO
HE, LE, M1, PI
M2, M3
BN, BU, CR, VO, WD
AB, BL, BN, CR, D1, GL, HE, LE, M1, M3, PI, VO
M2
BU, WD
AB, CR, D1, HE, M3, PI, WD
BL, M1
BU, M2
SET
Mtodo CHI
- 457 -
RLF
SCH
FUZ
RLF
SCH
FUZ
SCH
FUZ
FUZ
Mtodo SET
Iguales:
Peor SET:
Mejor SET:
Iguales:
Peor SET:
Mejor SET:
Iguales:
Peor SET:
Mejor SET:
Iguales:
Peor SET:
GL, HE, WD
BL, BU, D1, M2, M3
AB, M1, PI, VO
HE, M1, PI
BU, M2, M3
BN, CR, LE, VO, WD
BL, BU, CR, D1, GL, HE, M1, M3, PI, VO
M2
AB, BN, LE, WD
CR, D1, HE, M3, PI, WD
BL, BU, M1
AB, M2
Mejor GD_DS:
Iguales:
Peor GD_DS:
Mejor GD_DS:
Iguales:
Peor GD_DS:
Mejor GD_DS:
Iguales:
Peor GD_DS:
Mejor RLF:
Iguales:
Peor RLF:
Mejor RLF:
Iguales:
Peor RLF:
Mejor SCH:
Iguales:
Peor SCH:
Mtodo GD DS
Mtodo RLF
Mtodo SCH
- 458 -
BL2
- 459 -
BL2
- 460 -
BL2
- 461 -
Mejor PRI_WD:
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
CLO
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
PRI
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
DEV
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
LEE
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
TEK
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
SAN
Iguales:
Peor PRI_WD:
TEKA Mejor PRI_WD:
Iguales:
Peor PRI_WD:
TEKB Mejor PRI_WD:
Iguales:
Peor PRI_WD:
DER2 Mejor PRI_WD:
Iguales:
Peor PRI_WD:
DER3 Mejor PRI_WD:
Iguales:
Peor PRI_WD:
MAO Mejor PRI_WD:
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
UTA
Iguales:
Peor PRI_WD:
Mejor PRI_WD:
CIB
Iguales:
Peor PRI_WD:
TEKE Mejor PRI_WD:
Iguales:
Peor PRI_WD:
YOU Mejor PRI_WD:
Iguales:
Peor PRI_WD:
BL2
VO, WD
GL
BN, BU, CR, HE, PI
BN, VO
CR, GL, PI, WD
BU, HE
BN, VO
CR, GL, HE, PI, WD
BU
VO, WD
CR, GL
BN, BU, HE, PI
BU, CR, GL, HE, PI, VO, WD
BN
GL, PI, VO, WD
CR
BN, BU, HE
BN, PI, VO
CR, GL, WD
BU, HE
VO, WD
GL
BN, BU, CR, HE, PI
GL, VO
WD
BN, BU, CR, HE, PI
GL, WD
PI, VO
BN, BU, CR, HE
BU, CR, GL, HE, PI, VO, WD
BN
CR, PI, WD
GL, HE, VO
BN, BU
HE, WD
GL
BN, BU, CR, PI, VO
CR, GL, PI, VO, WD
HE
BN, BU
GL, HE, PI, VO, WD
BU
PI, VO, WD
CR
BN, HE
- 462 -
BL2
- 463 -
Mejor LEE_WD: BU
Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD
Mejor LEE_WD: BN, BU
CLO
Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD
Mejor LEE_WD: BN, BU
PRI
Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD
Mejor LEE_WD: BU
DEV
Iguales:
Peor LEE_WD: BN, CR, GL, HE, PI, VO, WD
Mejor LEE_WD: BN, BU, CR, GL, PI
LEE
Iguales:
Peor LEE_WD: HE, VO, WD
Mejor LEE_WD: BN, BU
TEK
Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD
Mejor LEE_WD: BN, BU
SAN
Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD
TEKA Mejor LEE_WD: BU
Iguales:
Peor LEE_WD: BN, CR, GL, HE, PI, VO, WD
TEKB Mejor LEE_WD: BN, BU
Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD
DER2 Mejor LEE_WD: BN, BU
Iguales:
Peor LEE_WD: CR, GL, HE, PI, VO, WD
DER3 Mejor LEE_WD: BN, BU, GL, VO, WD
Iguales:
Peor LEE_WD: CR, HE, PI
MAO Mejor LEE_WD: BU
Iguales:
Peor LEE_WD: BN, CR, GL, HE, PI, VO, WD
Mejor LEE_WD: BU
UTA
Iguales:
Peor LEE_WD: BN, CR, GL, HE, PI, VO, WD
Mejor LEE_WD: BU
CIB
Iguales:
Peor LEE_WD: BN, CR, GL, HE, PI, VO, WD
TEKE Mejor LEE_WD: BU, GL, PI
Iguales:
Peor LEE_WD: GL, HE, VO, WD
YOU Mejor LEE_WD:
Iguales:
Peor LEE_WD: BN, CR, HE, PI, VO, WD
BL2
- 464 -
Mejor TEK_WD:
GL
Iguales:
Peor TEK_WD: BN, BU, CR, HE, PI, VO, WD
Mejor TEK_WD: BN, HE
CLO
CR, GL, PI
Iguales:
Peor TEK_WD: BU, VO, WD
Mejor TEK_WD: BN, HE
PRI
CR, GL, PI
Iguales:
Peor TEK_WD: BU, VO, WD
Mejor TEK_WD: WD
DEV
CR, GL
Iguales:
Peor TEK_WD: BN, BU, HE, PI, VO
Mejor TEK_WD: CR, GL, HE, PI, VO, WD
LEE
BU
Iguales:
Peor TEK_WD: BN
Mejor TEK_WD: GL, PI, WD
TEK
CR
Iguales:
Peor TEK_WD: BN, BU, HE, VO
Mejor TEK_WD: BN, HE, PI
SAN
CR, GL
Iguales:
Peor TEK_WD: BU, VO, WD
TEKA Mejor TEK_WD:
GL
Iguales:
Peor TEK_WD: BN, BU, CR, HE, PI, VO, WD
TEKB Mejor TEK_WD: GL, HE
Iguales:
Peor TEK_WD: BN, BU, CR, PI, VO, WD
DER2 Mejor TEK_WD: GL, WD
PI
Iguales:
Peor TEK_WD: BN, BU, CR, HE, VO
DER3 Mejor TEK_WD: CR, GL, HE, PI, VO, WD
Iguales:
Peor TEK_WD: BN, BU
MAO Mejor TEK_WD: CR, PI, WD
GL
Iguales:
Peor TEK_WD: BN, BU, HE, VO
Mejor TEK_WD: HE, WD
UTA
GL
Iguales:
Peor TEK_WD: BN, BU, CR, PI, VO
Mejor TEK_WD: CR, GL, PI, WD
CIB
Iguales:
Peor TEK_WD: BN, BU, HE, VO
TEKE Mejor TEK_WD: GL, HE, PI, VO, WD
Iguales:
Peor TEK_WD: BU
YOU Mejor TEK_WD: PI, WD
CR
Iguales:
Peor TEK_WD: BN, HE, VO
BL2
- 465 -
BL2
- 466 -
BL2
- 467 -
BL2
- 468 -
Mejor DER2_WD:
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
CLO
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
PRI
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
DEV
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
LEE
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
TEK
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
SAN
Iguales:
Peor DER2_WD:
TEKA Mejor DER2_WD:
Iguales:
Peor DER2_WD:
TEKB Mejor DER2_WD:
Iguales:
Peor DER2_WD:
DER2 Mejor DER2_WD:
Iguales:
Peor DER2_WD:
DER3 Mejor DER2_WD:
Iguales:
Peor DER2_WD:
MAO Mejor DER2_WD:
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
UTA
Iguales:
Peor DER2_WD:
Mejor DER2_WD:
CIB
Iguales:
Peor DER2_WD:
TEKE Mejor DER2_WD:
Iguales:
Peor DER2_WD:
YOU Mejor DER2_WD:
Iguales:
Peor DER2_WD:
BL2
BN, VO
BU, CR, GL, HE, PI, WD
BN, VO
CR, PI
BU, GL, HE, WD
BN, VO
CR, PI
BU, GL, HE, WD
BN, VO
CR, WD
BU, GL, HE, PI
BN, CR, GL, HE, PI, VO, WD
BU
BN, PI, VO
CR, GL, HE
BU, WD
BN, PI, VO
CR
BU, GL, HE, WD
BN, VO
BU, CR, GL, HE, PI, WD
BN, VO
GL
BU, CR, HE, PI, WD
BN
GL, PI
BU, CR, HE, VO, WD
CR, GL, PI, VO, WD
BN, BU, HE
CR, HE, PI
VO
BN, BU, GL, WD
BN, BU, CR, GL, HE, PI, VO, WD
CR, HE, PI, VO
GL
BN, BU, WD
GL, HE, PI, VO
BU, WD
PI, VO
CR, HE
BN, WD
- 469 -
BL2
- 470 -
Mejor MAO_WD: WD
BN, GL
Iguales:
Peor MAO_WD: BU, CR, HE, PI, VO
Mejor MAO_WD: BN, CR, VO
CLO
GL
Iguales:
Peor MAO_WD: BU, HE, PI, WD
Mejor MAO_WD: BN, CR, VO
PRI
GL
Iguales:
Peor MAO_WD: BU, HE, PI, WD
Mejor MAO_WD: BN, CR, WD
DEV
GL
Iguales:
Peor MAO_WD: BU, HE, PI, VO
Mejor MAO_WD: BN, BU, CR, GL, PI, VO, WD
LEE
Iguales:
Peor MAO_WD: HE
Mejor MAO_WD: BN, CR, GL, VO
TEK
Iguales:
Peor MAO_WD: BU, HE, PI, WD
Mejor MAO_WD: BN, CR, VO
SAN
GL
Iguales:
Peor MAO_WD: BU, HE, PI, WD
TEKA Mejor MAO_WD:
BN, GL, WD
Iguales:
Peor MAO_WD: BU, CR, HE, PI, VO
TEKB Mejor MAO_WD: BN, GL, VO
Iguales:
Peor MAO_WD: BU, CR, HE, PI, WD
DER2 Mejor MAO_WD: BN, GL, WD
Iguales:
Peor MAO_WD: BU, CR, HE, PI, VO
DER3 Mejor MAO_WD: BN, CR, GL, HE, PI, VO, WD
Iguales:
Peor MAO_WD: BU
MAO Mejor MAO_WD: CR
GL, WD
Iguales:
Peor MAO_WD: BN, BU, HE, PI, VO
Mejor MAO_WD: HE, WD
UTA
BN, GL
Iguales:
Peor MAO_WD: BU, CR, PI, VO
Mejor MAO_WD: CR, GL
CIB
VO, WD
Iguales:
Peor MAO_WD: BN, BU, HE, PI
TEKE Mejor MAO_WD: GL, PI, VO
Iguales:
Peor MAO_WD: BU, HE, WD
YOU Mejor MAO_WD: CR
VO
Iguales:
Peor MAO_WD: BN, HE, PI, WD
BL2
- 471 -
BL2
- 472 -
Mejor CIB_WD:
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
CLO
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
PRI
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
DEV
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
LEE
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
TEK
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
SAN
Iguales:
Peor CIB_WD:
TEKA Mejor CIB_WD:
Iguales:
Peor CIB_WD:
TEKB Mejor CIB_WD:
Iguales:
Peor CIB_WD:
DER2 Mejor CIB_WD:
Iguales:
Peor CIB_WD:
DER3 Mejor CIB_WD:
Iguales:
Peor CIB_WD:
MAO Mejor CIB_WD:
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
UTA
Iguales:
Peor CIB_WD:
Mejor CIB_WD:
CIB
Iguales:
Peor CIB_WD:
TEKE Mejor CIB_WD:
Iguales:
Peor CIB_WD:
YOU Mejor CIB_WD:
Iguales:
Peor CIB_WD:
BL2
BN, VO
GL
BU, CR, HE, PI, WD
BN, VO
GL, PI
BU, CR, HE, WD
BN, VO
GL, PI
BU, CR, HE, WD
BN, VO, WD
GL
BU, CR, HE, PI
BN, BU, CR, GL, HE, PI, VO, WD
BN, GL, PI, VO, WD
HE
BU, CR
BN, PI, VO
GL
BU, CR, HE, WD
BN, VO
GL
BU, CR, HE, PI, WD
BN, GL, VO
BU, CR, HE, PI, WD
BN, GL, VO, WD
PI
BU, CR, HE
BN, CR, GL, PI, VO, WD
BU, HE
BN, HE, PI, VO
GL
BU, CR, WD
BN, BU, CR, HE, PI, WD
GL, VO
BN, GL, HE, PI, VO
CR
BU, WD
GL, HE, PI, VO, WD
BU
PI, VO, WD
HE
BN, CR
- 473 -
Mejor TEKE_WD:
GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
Mejor TEKE_WD:
GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
Mejor TEKE_WD:
CLO
GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
Mejor TEKE_WD:
PRI
GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
Mejor TEKE_WD:
DEV
GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
Mejor TEKE_WD: BU, GL, PI, VO
LEE
HE, WD
Iguales:
Peor TEKE_WD:
Mejor TEKE_WD: GL
TEK
BU
Iguales:
Peor TEKE_WD: HE, PI, VO, WD
Mejor TEKE_WD: HE
SAN
GL
Iguales:
Peor TEKE_WD: BU, PI, VO, WD
TEKA Mejor TEKE_WD:
GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
TEKB Mejor TEKE_WD: GL, HE
Iguales:
Peor TEKE_WD: BU, PI, VO, WD
DER2 Mejor TEKE_WD: GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
DER3 Mejor TEKE_WD: BU, GL, HE, PI, VO, WD
Iguales:
Peor TEKE_WD:
MAO Mejor TEKE_WD:
GL
Iguales:
Peor TEKE_WD: BU, HE, PI, VO, WD
Mejor TEKE_WD: HE
UTA
GL
Iguales:
Peor TEKE_WD: BU, PI, VO, WD
Mejor TEKE_WD: GL
CIB
BU
Iguales:
Peor TEKE_WD: HE, PI, VO, WD
TEKE Mejor TEKE_WD: BU, GL, HE, PI, VO
Iguales:
Peor TEKE_WD: WD
YOU Mejor TEKE_WD:
Iguales:
Peor TEKE_WD: HE, PI, VO, WD
BL2
- 474 -
BL2
- 475 -