6. Aplicaciones ............................................................................................................ 20
Existen numerosas formas de definir a las redes neuronales; desde las definiciones cortas y
genéricas hasta las que intentan explicar más detalladamente qué son las redes neuronales. Por
ejemplo:
1) Una nueva forma de computación, inspirada en modelos biológicos.
2) Un modelo matemático compuesto por un gran número de elementos procesales organizados
en niveles.
3) Es un sistema de computación compuesto por un gran número de elementos simples,
elementos de procesos muy interconectados, los cuales procesan información por medio de su
estado dinámico como respuesta a entradas externas.
4) Redes neuronales artificiales son redes interconectadas masivamente en paralelo de elementos
simples (usualmente adaptativos) y con organización jerárquica, las cuales intentan interactuar
con los objetos del mundo real del mismo modo que lo hace el sistema nervioso biológico.
2. Ventajas que ofrecen las redes neuronales
Debido a su constitución y a sus fundamentos, las redes neuronales artificiales presentan un gran
número de características semejantes a las del cerebro. Por ejemplo, son capaces de aprender de
la experiencia, de generalizar de casos anteriores a nuevos casos, de abstraer características
esenciales a partir de entradas que representan información irrelevante, etc. Esto hace que
ofrezcan numerosas ventajas y que este tipo de tecnología se esté aplicando en múltiples áreas.
Entre las ventajas se incluyen:
Aprendizaje Adaptativo. Capacidad de aprender a realizar tareas basadas en un
entrenamiento o en una experiencia inicial.
Auto-organización. Una red neuronal puede crear su propia organización o
representación de la información que recibe mediante una etapa de aprendizaje.
Tolerancia a fallos. La destrucción parcial de una red conduce a una degradación de
su estructura; sin embargo, algunas capacidades de la red se pueden retener, incluso
sufriendo un gran daño.
Operación en tiempo real. Los cómputos neuronales pueden ser realizados en paralelo;
para esto se diseñan y fabrican máquinas con hardware especial para obtener esta
capacidad.
Fácil inserción dentro de la tecnología existente. Se pueden obtener chips
especializados para redes neuronales que mejoran su capacidad en ciertas tareas. Ello
facilitará la integración modular en los sistemas existentes.
2.1.Aprendizaje adaptativo
2.3.Tolerancia a fallos
Las redes neuronales fueron los primeros métodos computacionales con la capacidad
inherente de tolerancia a fallos. Comparados con los sistemas 10 computacionales tradicionales,
los cuales pierden su funcionalidad cuando sufren un pequeño error de memoria, en las redes
neuronales, si se produce un fallo en un número no muy grande de neuronas y aunque el
comportamiento del sistema se ve influenciado, no sufre una caída repentina. Hay dos aspectos
distintos respecto a la tolerancia a fallos:
a) Las redes pueden aprender a reconocer patrones con ruido, distorsionados o
incompletos. Esta es una tolerancia a fallos respecto a los datos.
b) Las redes pueden seguir realizando su función (con cierta degradación)
aunque se destruya parte de la red.
La razón por la que las redes neuronales son tolerantes a los fallos es que tienen su
información distribuida en las conexiones entre neuronas, existiendo cierto grado de redundancia
en este tipo de almacenamiento. La mayoría de los ordenadores algorítmicos y sistemas de
recuperación de datos almacenan cada pieza de información en un espacio único, localizado y
direccionable. En cambio, las redes neuronales almacenan información no localizada. Por lo
tanto, la mayoría de las interconexiones entre los nodos de la red tendrán sus valores en función
de los estímulos recibidos, y se generará un patrón de salida que represente la información
almacenada.
2.4.Operación en tiempo real
Una red individual puede ser entrenada para desarrollar una única y bien definida tarea
(tareas complejas, que hagan múltiples selecciones de patrones, requerirán sistemas de redes
interconectadas). Con las herramientas computacionales existentes (no del tipo PC), una red
puede ser rápidamente entrenada, comprobada, verificada y trasladada a una implementación
hardware de bajo coste. Por lo tanto, no se presentan dificultades para la inserción de redes
neuronales en aplicaciones específicas, por ejemplo de control, dentro de los sistemas existentes.
De esta manera, las redes neuronales se pueden utilizar para mejorar sistemas en forma
incremental y cada paso puede ser evaluado antes de acometer un desarrollo más amplio.
La misma está constituida por neuronas interconectadas y arregladas en tres capas (esto
último puede variar). Los datos ingresan por medio de la “capa de entrada”, pasan a través de la
“capa oculta” y salen por la “capa de salida”. Cabe mencionar que la capa oculta puede estar
constituida por varias capas. Antes de comenzar el estudio sobre las redes neuronales, se debe
aprender algo sobre las neuronas y de cómo ellas son utilizadas por una red neuronal. En la
Figura se compara una neurona biológica con una neurona artificial. En la misma se pueden
observar las similitudes entre ambas (tienen entradas, utilizan pesos y generan salidas).
3.1 Función de entrada (input function)
La neurona trata a muchos valores de entrada como si fueran uno solo; esto recibe el
nombre de entrada global. Por lo tanto, ahora nos enfrentamos al problema de cómo se pueden
combinar estas simples entradas (ini1, ini2, ...) dentro de la entrada Capa de entrada Capas
ocultas Capa de salida I1 I2 In O1 O2 On Entradas Salidas Dendritas (entradas) Sinapsis (pesos)
Axon (salidas) 13 global, gini. Esto se logra a través de la función de entrada, la cual se calcula
a partir del vector entrada. La función de entrada puede describirse como sigue:
inputi = (ini1• wi1)* (ini2• wi2)*... (inin• win)
Donde: * representa al operador apropiado (por ejemplo: máximo, sumatoria, productoria, etc.),
n al número de entradas a la neurona Ni y wi al peso.
Los valores de entrada se multiplican por los pesos anteriormente ingresados a la neurona.
Por consiguiente, los pesos que generalmente no están restringidos cambian la medida de
influencia que tienen los valores de entrada. Es decir, que permiten que un gran valor de entrada
tenga solamente una pequeña influencia, si estos son lo suficientemente pequeños.
Una neurona biológica puede estar activa (excitada) o inactiva (no excitada); es decir, que
tiene un “estado de activación”. Las neuronas artificiales también tienen diferentes estados de
activación; algunas de ellas solamente dos, al igual que las biológicas, pero otras pueden tomar
cualquier valor dentro de un conjunto determinado. La función activación calcula el estado de
actividad de una neurona; transformando la entrada global (menos el umbral, Θi) en un valor
(estado) de activación, cuyo rango normalmente va de (0 a 1) o de (–1 a 1). Esto es así, porque
una neurona puede estar totalmente inactiva (0 o –1) o activa (1). La función activación, es una
función de la entrada global (gini) menos el umbral (Θi).
Para explicar porque se utilizan estas funciones de activación se suele emplear la analogía
a la aceleración de un automóvil. Cuando un auto inicia su movimiento necesita una potencia
elevada para comenzar a acelerar. Pero al ir tomando velocidad, este demanda un menor
incremento de dicha potencia para mantener la aceleración. Al llegar a altas velocidades,
nuevamente un amplio incremento en la potencia es necesario para obtener una pequeña ganancia
de velocidad. En resumen, en ambos extremos del rango de aceleración de un automóvil se
demanda una mayor potencia para la aceleración que en la mitad de dicho rango.
El último componente que una neurona necesita es la función de salida. El valor resultante
de esta función es la salida de la neurona i (outi); por ende, la función de salida determina qué
valor se transfiere a las neuronas vinculadas. Si la función de activación está por debajo de un
umbral determinado, ninguna salida se pasa a la neurona subsiguiente. Normalmente, no
cualquier valor es permitido como una entrada para una neurona, por lo tanto, los valores de
salida están comprendidos en el rango [0, 1] o [-1, 1]. También pueden ser binarios {0, 1} o {-1,
1}. Dos de las funciones de salida más comunes son:
Ninguna: este es el tipo de función más sencillo, tal que la salida es la misma que la
entrada. Es también llamada función identidad.
1 𝑎𝑐𝑡𝑖 ≥ ξ i
Binaria: {
0 𝑑𝑒 𝑙𝑜 𝑐𝑜𝑛𝑡𝑟𝑎𝑟𝑖𝑜
Las neuronas artificiales se pueden clasificar de acuerdo a los valores que pueden tomar.
Por ahora es suficiente distinguir entre dos tipos principales: a- Neuronas binarias. b- Neuronas
reales. Las neuronas binarias solamente pueden tomar valores dentro del intervalo {0, 1} o {-1,
1}, mientras que las neuronas reales pueden hacerlo dentro del rango [0, 1] o [-1, 1]. Los pesos
normalmente no están restringidos a un cierto intervalo, aunque para aplicaciones específicas
puede ser esto necesario.
4.3.Mecanismos de aprendizaje
Se ha visto que los datos de entrada se procesan a través de la red neuronal con el
propósito de lograr una salida. También se dijo que las redes neuronales extraen generalizaciones
desde un conjunto determinado de ejemplos anteriores de tales problemas de decisión. Una red
neuronal debe aprender a calcular la salida correcta para cada constelación (arreglo o vector) de
entrada en el conjunto de ejemplos. Este proceso de aprendizaje se denomina: proceso de
entrenamiento o acondicionamiento. El conjunto de datos (o conjunto de ejemplos) sobre el cual
este proceso se basa es, por ende, llamado: conjunto de datos de entrenamiento. Si la topología
de la red y las diferentes funciones de cada neurona (entrada, activación y salida) no pueden
cambiar durante el aprendizaje, mientras que los pesos sobre cada una de las conexiones si
pueden hacerlo; el aprendizaje de una red neuronal significa: adaptación de los pesos. En otras
palabras el aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta
a una información de entrada. Los cambios que se producen durante el mismo se reducen a la
destrucción, modificación y creación de conexiones entre las neuronas. En los sistemas
biológicos existe una continua destrucción y creación de conexiones entre las neuronas. En los
modelos de redes neuronales artificiales, la creación de una nueva conexión implica que el peso
de la misma pasa a tener un valor distinto de cero. De la misma manera, una conexión se destruye
cuando su peso pasa a ser cero.
Otro criterio que se puede utilizar para diferenciar las reglas de aprendizaje se basa en
considerar si la red puede aprender durante su funcionamiento habitual o si el aprendizaje supone
la desconexión de la red, es decir, su inhabilitación hasta que el proceso termine. En el primer
caso, se trataría de un aprendizaje on line, mientras que el segundo es lo que se conoce como off
line. Cuando el aprendizaje es off line, se distingue entre una fase de aprendizaje o entrenamiento
y una fase de operación o funcionamiento, existiendo un conjunto de datos de entrenamiento y
un conjunto de datos de test o prueba, que serán utilizados en la correspondiente fase. Además,
los pesos de las conexiones permanecen fijos después que termina la etapa de entrenamiento de
la red. Debido precisamente a su carácter estático, estos sistemas no presentan problemas de
estabilidad en su funcionamiento.
4.4.Validación de la red neuronal.
Después del proceso de entrenamiento los pesos de las conexiones en la red neuronal
quedan fijos. Como paso siguiente se debe comprobar si la red neuronal puede resolver nuevos
problemas, del tipo general, para los que ha sido entrenada. Por lo tanto, con el propósito de
validar la red neuronal se requiere de otro conjunto de datos, denominado conjunto de validación
o testeo. Cada ejemplo del conjunto de evaluación contiene los valores de las variables de
entrada, con su correspondiente solución tomada; pero ahora esta solución no se le es otorgada a
la red neuronal. Luego se compara la solución calculada para cada ejemplo de validación con la
solución conocida. El nuevo ejemplo utilizado para la validación se identifica como Eu y su
correspondiente salida correcta como Au (u indica incógnita, en inglés). Ahora el problema es
que hay que decidir cuando la salida de la red neuronal ha de considerarse como correcta.
5. Principales Topologías
5.2.Redes monocapa.
En las redes monocapa, se establecen conexiones entre las neuronas que pertenecen a la única
capa que constituye la red. Las redes monocapas se utilizan generalmente en tareas
relacionadas con lo que se conoce como autoasociación (regenerar información de entrada que
se presenta a la red de forma incompleta o distorsionada).
5.3.Redes multicapa.
Las redes multicapas son aquellas que disponen de un conjunto de neuronas agrupadas
en varios (2, 3, etc.) niveles o capas. En estos casos, una forma para distinguir la capa a la que
pertenece una neurona, consistiría en fijarse en el origen de las señales que recibe a la entrada y
el destino de la señal de salida. Normalmente, todas las neuronas de una capa reciben señales
de entrada desde otra capa anterior (la cual está más cerca a la entrada de la red), y envían señales
de salida a una capa posterior (que está más cerca a la salida de la red). A estas conexiones se las
denomina conexiones hacia adelante o feedforward.
Sin embargo, en un gran número de estas redes también existe la posibilidad de conectar
la salida de las neuronas de capas posteriores a la entrada de capas anteriores; a estas conexiones
se las denomina conexiones hacia atrás o feedback.
Estas dos posibilidades permiten distinguir entre dos tipos de redes con múltiples capas:
las redes con conexiones hacia adelante o redes feedforward, y las redes que disponen de
conexiones tanto hacia adelante como hacia atrás o redes feedforward/feedback.
variación de tiempo
El cociente, , muestra la reacción o sensibilidad del
variación de temperatura
100 90 tiempo 10
segundos/º C segundos/º C 1 segundos/º C
30 20 temperatura 10
Esto significa que se produce un incremento de tiempo de aproximadamente 1 segundo,
cuando la temperatura se eleva 1ºC.
Ahora si se supone que en lugar del tiempo se tiene la activación de una neurona y en
lugar de la temperatura, la entrada global. Dado que la mayoría de las funciones de activación
son no lineales (por ejemplo la función sigmoidea o la tangente hiperbólica), se tiene que calcular
la derivada de la función con respecto al peso; por consiguiente, la entrada global cambia. Esta
derivada se utiliza para cambiar los pesos durante el proceso de aprendizaje.
Para cada una de las neuronas en la capa de salida, la desviación objetivo (la cual es: la
salida objetivo menos la salida real) es multiplicada por la derivada de la función activación.
Utilizando la derivada se logra una “sintonización fina” de los pesos cuando la salida real esta
cerca de la salida deseada. Al mirar la Figura 6.1, la misma muestra una constelación donde la
salida real para una neurona es 0.95 y la deseada es de 1.
Activación
F. sigmiodea (g, x)
Salida deseada = 1
Salida real = 0.95
Entrada global
Las Redes Hopfield se emplean para reconocer patrones. Después que el aprendizaje haya
llegado a su fin, la red neuronal debe ser capaz de dar una salida correcta para cada patrón de
entrada dado, aun cuando este sea ruidoso.
La clave del aprendizaje Hopfield es que si un patrón que tiene que ser aprendido se
conoce, los pesos sobre cada conexión de la red neuronal pueden ser calculados. En esta
circunstancia, solamente el estado de las neuronas cambia durante el proceso de aprendizaje. Este
cálculo garantiza que cada patrón aprendido corresponda a un mínimo de la función energía.
Es importante entender que para este tipo de redes la definición de aprendizaje es diferente
al dado anteriormente, donde aprendizaje significaba simplemente la adaptación de los pesos. En
una Red Hopfield los pesos se pueden calcular y se mantienen fijos durante el aprendizaje de los
patrones. Solamente cambia el estado de las neuronas.
Para calcular el peso de una conexión cualquiera, wij (y por simetría para la conexión wji),
en una Red Hopfield se utiliza la siguiente ecuación:
Q
wij ∑ (2 * eqi 1) * (2 * eqj 1) , i< > j
q1
siendo Q el número de patrones y eqi la entrada a la neurona Ni.
Generalmente es aconsejable trabajar con esta ecuación cuando los patrones que se han
de aprender no son muy semejantes unos a otros, y si el número de ceros y unos son similares
para todos los patrones. Con respecto al número de ceros y unos, el umbral de cada neurona puede
utilizarse para regular esto, distinguiéndose así dos casos posibles:
5.6.1.Si hay más 0s que 1s el umbral tiene que disminuirse, porque que las neuronas tienen
una probabilidad más alta para hacerse inactivas que para hacerse activas.
5.6.2.Si hay mas 1s que 0s el umbral tiene que incrementarse, porque las neuronas tienen
una probabilidad más alta para hacerse activas que para hacerse inactivas.
En una Red Hopfield todos los mínimos locales son un estado estable. Un problema
similar se origina en termodinámica durante el proceso de cristalización. Durante un
enfriamiento lento, el cristal crece con una estructura casi perfecta, ya que cada átomo tiene
bastante tiempo para saltar a otra posición dentro de la cuadrícula, de tal forma que la energía
total del cristal decrezca. Para realizar dicho salto se necesita energía, es decir, que si el cristal
tiene la energía suficiente (si su temperatura es aun bastante alta), todos los átomos disponen
de una chance para cambiar su posición. Pero para permitir que esto ocurra la energía de un
átomo tiene que incrementarse por un corto tiempo, de lo contrario el átomo descansaría en su
vieja posición.
Tener una chance se puede interpretar como “hay una probabilidad”. Esta probabilidad
depende de la activación que un átomo muestra a una determinada temperatura y tiempo del
sistema.
Utilizando esta técnica donde el cristal comienza a una temperatura elevada y que luego
decrece paso a paso, se les da a los átomos una posibilidad de cambiar sus estados
independientemente de la activación, por medio de un incremento en la energía de los mismos
de un paso a otro. Cuando la temperatura se reduce, la cuadrícula vibra menos, y el sistema (la
cuadrícula) alcanza un estado estable; haciéndose gradualmente más dificultoso para un átomo
encontrar la energía para saltar a otra posición. Esta es la idea de Simulated Annealing, que
luego se aplica a la Red Hopfield cuando se intenta encontrar un óptimo global.
A grandes rasgos se describe que una Simulated Annealing trabaja de esta manera:
Por último una diferenciación muy importante es que en una Simulated Annealing
la energía puede disminuir en un paso y crecer en el otro, pero en una Red Hopfield la
energía solamente puede disminuir paso a paso.
Existen dos formas primarias de realizar esta asociación entre entradas/salidas que se
corresponden con la naturaleza de la información almacenada en la red. Una primera sería la
denominada heteroasociación, que se refiere al caso en el que la red aprende parejas de datos
[(A1,B1), (A2, B2),... (AN,BN)], de tal forma que cuando se presente cierta información de entrada
Ai, deberá responder generando la correspondiente salida asociada Bi. La segunda se conoce
como autoasociación, donde la red aprende ciertas informaciones A1, A2, ..., AN; de tal forma
que cuando se le presenta una información de entrada realizará una autocorrelación,
respondiendo con uno de los datos almacenados, el más parecido al de entrada.
Estos dos mecanismos de asociación dan lugar a dos tipos de redes neuronales: las redes
heteroasociativas y las autoasociativas. Una red heteroasociativa podría considerarse como
aquella que computa cierta función, que en la mayoría de los casos no podría expresarse
analíticamente, entre un conjunto de entradas y un conjunto de salidas, correspondiendo a cada
posible entrada una determinada salida. Por otra parte, una red autoasociativa es una red cuya
principal misión es reconstruir una determinada información de entrada que se presente
incompleta o distorsionada (le asocia el dato almacenado más parecido).
En realidad estos dos tipos de modelos de redes no son diferentes en principio, porque
una red heteroasiciativa puede siempre ser reducida a una asociativa mediante la
concatenación de una información de entrada y su salida (respuesta) asociada, para obtener la
información de entrada de la red autoasociativa equivalente. También puede conseguirse que
una red autoasociativa se comporte como heteroasociativa, simplemente presentando, como
entrada parcial de la autoasociativa, la información de entrada para la heteroasociativa y
haciendo que la red complete la información para producir lo que sería la salida de la red
heteroasociativa equivalente.
En cuanto a su conectividad, pueden ser del tipo con conexión hacia adelante (o
feedforward) o con conexión hacia atrás (feddforward/feedback), o bien con conexiones laterales.
5.8.2. Redes autoasociativas.
Una red autoasociativa asocia una información de entrada con el ejemplar más parecido
de los almacenados conocidos por la red. Estos tipos de redes pueden implementarse con una sola
capa de neuronas. Esta capa comenzará reteniendo la información inicial a la entrada, y terminará
representando la información autoasociada. Si se quiere mantener la información de entrada y
salida, se deberían añadir capas adicionales, sin embargo, la funcionalidad de la red puede
conseguirse en una sola capa.
6. Aplicaciones
• Biología:
• Empresa:
• Medio ambiente:
• Finanzas:
- Identificación de falsificaciones.
- Interpretación de firmas.
• Manufacturación:
- Inspección de la calidad.
• Medicina:
- Monitorización en cirugías.
• Militares:
Desde el punto de vista de los casos de aplicación, la ventaja de las redes neuronales reside
en el procesado paralelo, adaptativo y no lineal.
6.1.1.Asociación y clasificación.
En esta aplicación, los patrones de entrada estáticos o señales temporales deben ser
clasificadas o reconocidas. Idealmente, un clasificador debería ser entrenado para que cuando se
le presente una versión distorsionada ligeramente del patrón, pueda ser reconocida correctamente
sin problemas. De la misma forma, la red debería presentar cierta inmunidad contra el ruido, esto
es, debería ser capaz de recuperar una señal "limpia" de ambientes o canales ruidosos. Esto es
fundamental en las aplicaciones holográficas, asociativas o regenerativas.
6.1.4.Optimización.
Algoritmo de aprendizaje:
Topología de la red:
Como primera aproximación utilizaron una red neuronal por predicción del consumo
orientado; centralizando la investigación en la determinación de las habilidades de las redes
para producir salidas correctas cuando analizan un dato real. El proyecto lo realizaron
conjuntamente con la compañía que lo solicitó, la cual se dedica a la fabricación de bicicletas
y por ende, necesita de tubos para la construcción de las mismas; cuyo consumo debían
predecir.
Cantidad [103]
Tiempo
Figura 7.1: series de tiempo
empleadas en la planificación de la
demanda de materiales.
Cada serie de tiempo incluye datos desde 1992 a 1994 (semanalmente). Las series,
pedido y stock, fueron codificados dentro del intervalo [0.0, 0.9], para lo cual utilizaron una
función de transformación lineal. Mientras que al consumo lo codificaron en dos pasos, porque
esta serie de tiempo varía, en partes, de manera muy brusca. Para el primer paso emplearon la
fórmula:
x mx
old
znew
std ( x)
siendo mx el promedio de las series de tiempo y std(x) la desviación estándar de las series de tiempo. Y
para el segundo aplicaron una transformación lineal a la nueva serie de tiempos z.
Topología de la red:
Sobre el ensayo de diferentes redes neuronales observaron que, sin importar la predicción que
se haga (mensualmente, semanalmente), más de dos capas ocultas desfavorecía el resultado obtenido.
Primero experimentaron solamente con la serie de tiempo del consumo, y con una red neuronal
constituida por nueve neuronas de entrada y una neurona más para la estación; empleando 80 patrones
para el entrenamientos y 53 para la validación. La exactitud que lograron luego de varias corridas de
la red neuronal, empleando diferentes topologías, se muestran en la Tabla 7.1 (error permitido: 20%,
ciclos de aprendizaje: 10000, algoritmos de aprendizaje: Quickpropagation o Resilient Propagation).
Exactitu
Topología
d
10-10-36-1 30.0%
10-20-36-1 10.0%
10-27-10-1 10.0% Tabla 7.1
Como se puede observar, dando solo el consumo como una entrada no es suficiente para predecir la
demanda.
Luego, utilizaron todas las series de tiempo descriptas en la Figura 7.1 como entradas a la red
neuronal y además, asignaron tres neuronas de entrada para cada serie de tiempo, lo que resultó en una
capa de entrada de nueve neuronas; logrando para las diferentes topologías una exactitud como la que
exhibe en la Tabla 5.1:
9-27-1 10 86.36 %
% 89.39 %
20
%
9-9-18-1 10 87.88 %
% 90.15 %
20
%
9-18-9-1 10 66.67 %
% 70.45 %
20
%
Tabla 7.2
Los resultados citados no parecen ser suficientemente buenos para la aplicación de una red
neuronal real en el campo del planeamiento de la demanda de materiales; no obstante, está claro que las
técnicas de las redes neuronales son prometedoras para la tarea. Actualmente se están ensayando otros
escenarios diferentes para mejorar las predicciones así obtenidas.
Nº de casos 690
Clases 2 (buena/mala)
307 (buenas): clase 2
Distribución de clases
383 (malas): clase 1
Nº de atributos: 14
-continuos 6
-binarios 4
-ordenados 4
Tabla 7.3
Codificación:
Codificaron los atributos continuos simplemente por una transformación lineal dentro
del intervalo [0.1, 0.9], utilizando para esto solamente una neurona (real). Los atributos binarios
también fueron codificados por medio de una neurona (binaria). Pensaron en la utilización de
dos neuronas binarias, pero los ensayos no mostraron ninguna diferencia entre ambos tipos de
codificación. En consecuencia utilizaron solamente una neurona para los atributos binarios.
A los atributos ordenados los trataron como sigue; ya que dependiendo de los diferentes
valores que los mismos podían tomar, el número de neuronas utilizadas en la capa de entrada
variaba. Codificaron cada posible valor en una neurona; por ejemplo si había tres valores
posibles, se necesitaba de tres neuronas. El procedimiento de codificación fue como el mostrado
en la Tabla 7.4:
Atributo Neurona de
entrada
valor 1 100
valor 2 010
valor 3 001
Tabla 7.4
La capa de salida estaba formada por una simple neurona binaria que daba una
clasificación bueno/malo.
Utilizando el procedimiento de codificación de la Tabla 7.4, al menos 32 neuronas les
fueron necesarias en la capa de entrada. Por supuesto otras formas de codificación de los
atributos pueden ser posibles.
Resultados:
Para el entrenamiento y validación, dividieron el conjunto de datos de la
Tabla 7.3 en dos subconjuntos. El número de ejemplos en cada subconjunto, se puede ver en
la Tabla 7.5, en donde intentaron mantener una distribución similar de candidatos buenos y
malos.
Subconjunto Nº de Distribución
ejemplos
o 266 (malos)