Construção de programas de
computador que melhoram seu
desempenho por meio de experiência
Aprendizado Supervisionado
Técnicas:
Redes Neurais do tipo Multilayer Perceptron
Máquinas de Vetores Suporte
Algoritmos Genéticos
Árvores de Decisão
AM – Conceitos Básicos
Aprendizado Não-supervisionado
Encontrar aglomerados
Técnicas:
Redes Neurais do tipo mapas auto-organizáveis
Algoritmo k-médias
AM – Conceitos Básicos
Característica
Classe
g1 g2 gj gN-1gN
Padrão 1 Câncer
Padrão 2 Normal
Padrão 3
Padrão i
Padrão m Câncer
AM – Conceitos Básicos
ou “não”
Hierarquicamente arranjadas
Não Sim
Não Sim
Não Sim
Não-gene Gene
ADs
Não Sim
Nós internos
Não-gene Códon de parada downstream? correspondem
a testes
Não Sim Ramos são
resultados dos
testes
Não-gene Folhas fornecem
classificações
ADs
Não Sim
Não Sim
Não Sim
Não-gene Gene
ADs – treinamento
Treinamento
AD encontra regras que recursivamente
bifurcam o conjunto de dados
Sub-conjuntos homogêneos intra sub-conjuntos e
Sub-conjuntos heterogêneos inter sub-conjuntos
Vantagens:
Estrutura de fácil manipulação
Produzem modelos que podem ser facilmente
interpretados por humanos
Desvantagens:
Pouca robustez a dados de grande dimensão
Acurácia afetada por atributos pouco relevantes
Dificuldade em lidar com dados contínuos
Algumas Ferramentas para
extração de ADs
Weka – http://www.cs.waikato.ac.nz/ml/weka/
Trepan - poderá ser adquirido através de um e-mail enviado à Mark
Craven (craven@biostat.wisc.edu), autor do Trepan.
Generalizar
O que são RNAs?
Uma rede neural é um processador maciçamente
paralelamente distribuído constituído de unidades de
processamento simples, que têm a propensão natural
para armazenar conhecimento experimental e torná-lo
disponível para o uso. Ela se assemelha ao cérebro em
dois aspectos:
Multi-disciplinaridade: Ciência da
Computação, Matemática, Física,
Engenharias, Psicologia, Biologia,
Lingüística, Filosofia, etc.
Modelos inspirados no cérebro humano
Compostas por várias unidades de
processamento (“neurônios”)
Otimização
Controle
Mineração de dados
etc...
Breve histórico
Década de 40 : O começo
biológico
(1949) Hebb desenvolve algoritmo
para treinar RNA (aprendizado
Hebbiano)
Se dois neurônios estão
• Controle de generalização
sinapses
A RNA deve saber mais sobre seu ambiente
Professor externo
Crítico externo
Tipos de reforço
Positivo = recompensa
Negativo = punição
Nulo
Aprendizado não
supervisionado
Perceptron Simples
Perceptron - Características
somente se E é não-separável).
Perceptron - Conclusões
Se um conjunto de exemplos de treinamento E é
não-separável, então por definição não existe um
vetor de pesos W que classifique corretamente todos
os exemplos de treinamento em E utilizando o
algoritmo de aprendizagem do perceptron. A
alternativa mais natural é encontrar um vetor de
pesos W* que classifique tantos exemplos de
treinamento quanto possível de E. Tal conjunto de
pesos é chamado de ótimo
Algoritmo Backpropagation - MLP
• Reconhecimento de Caracter
• Aproximador de Funções
Exemplo - Algoritmo Geral
Defina valor de ;
Repita
Para cada par {v, t}
Calcule a saída y apresentando v nas
entradas;
Se y<>t então w(n+1) = w(n) + (t-y)v
Senão w(n+1) = w(n);
Fim
Fim para
Até erro < Tolerância
Exemplo - Reconhecimento de Caracter
Padrões de Entrada
Exemplo - Reconhecimento de Caracter
Gráfico de erro
Ferramentas
http://www.nada.kth.se/~orre/snns-manual/
Matlab
Etc, etc