Anda di halaman 1dari 6

METROLOGIA-2003 – Metrologia para a Vida

Sociedade Brasileira de Metrologia (SBM)


Setembro 01−05, 2003, Recife, Pernambuco - BRASIL

MODELAGEM EMPÍRICA DO TEMPO DE ACOMODAÇÃO EM LEITURAS


AUTOMÁTICAS DE GRANDEZAS ELÉTRICAS

Affonso Guedes1 , Andreya P. Silva2 , Elaine S. Lelis3 , Eurípedes P. Santos4 , Fábio M. Soares5 , João
Claudio D. Carvalho6 , Marcelino S. Silva7 , Marcelo M. Costa 8 , Rodolfo da S. Alves9 , Rodrigo M. S.
Oliveira10 , Suely M.C. Romeiro11
1-5, 7-11
UFPa, Belém, Brasil
6
Eletronorte, Belém, Brasil

Resumo: Em calibrações automáticas o “time-out” é o tempo mínimo para a leitura automática não era o mesmo,
tempo necessário para que a leitura esteja disponível para ele tinha uma variação de acordo com a faixa, a freqüência e
aquisição pelo computador e portando deve ser especificado grandeza considerada. Modelar esse tempo de acomodação
com base no tempo de acomodação necessário para que as nas leituras é de suma importância para garantir eficiência
leituras estabilizem. no processo de calibração automática e principalmente
segurança dos dados obtidos. Este trabalho apresenta um
Este trabalho apresenta um estudo sobre a modelagem
estudo relacionado a modelagem empírica do tempo de
empírica do tempo de acomodação de instrumentos
acomodação ou aquisição de leituras realizadas em uma
utilizados em calibração no LACEN. A freqüência do sinal
calibração automática. Dá-se ênfase a métodos apropriados
de entrada senoidal constitui-se na variável de entrada e o
para a seleção de modelos, com especial atenção ao método
tempo necessário para a aquisição da leitura é considerado
de validação-cruzada.
como a resposta desejada. São investigados modelos
lineares e não-lineares para a dinâmica dos instrumentos em
1.1 O Time-out
diferentes faixas de operação para diferentes amplitudes do
sinal de entrada. Para a seleção de modelos, com base em Em comunicações entre dois dispositivos, o time-out pode
dados experimentais, utiliza-se a técnica estatística de ter dois significados:
Validação-Cruzada. O Erro de Predição é avaliado com base - Tempo máximo para envio de uma simples resposta ao
no Erro Quadrático Médio. Investiga-se também a controle (confirmando que o dispositivo sob controle
capacidade de predição dos modelos obtidos. recebeu o comando);
Palavras chave: Calibração Automática, Modelagem - Tempo máximo para envio da resposta ao controle, já
Estatística, Validação-Cruzada com o valor requerido.

2. MÉTODOS
1. INTRODUÇÂO
O Laboratório Central da Eletronorte (Lacen) tem sido o 2.1 Instrumentos utilizados e suas configurações:
local de realização de todos os experimentos contidos neste Instrumento 1: Multímetro Digital (MD) Agilent 3458A.
artigo. São oferecidos neste laboratório serviços de
calibração de grandezas elétricas. Atualmente, o Lacen está Função: medir uma tensão AC (Alternating Current); iniciar
credenciado à Rede Brasileira de Calibração, utilizando-se a integração quando receber um trigger externo; gerar um
os padrões do INMETRO, e é o principal agente na região pulso (Ext Out) quando a integração for finalizada.
norte do País a realizar calibrações de grandezas elétricas Instrumento 2: Multicalibrador Fluke 5500A.
para os mais diversos. Através da pesquisa e
desenvolvimento, o Lacen se encontra em processo de Função: gerar uma tensão AC.
automação de seus serviços de calibração, utilizando para Instrumento 3: Gerador de Sinal Agilent.
isso recursos tais quais computadores, softwares para
aquisição de dados, equipamentos diversos (multímetros, Função: gerar um pulso TTL.
calibradores, osciloscópios, contadores, etc) com interfaces Instrumento 4 :Freqüencímetro Agilent
RS-232 e GPIB.
Função: ativar a contagem do tempo com a chagada do sinal
Há pouco mais de um ano, quando o Lacen começou a A, e finalizar a contagem com a chagada do sinal B.
automatizar o processo de calibração, a definição de um
tempo de leitura tornou-se um problema. Para cada
equipamento, verificou-se através de experimentos que o
2.2 Esquema das conexões: 2.4 Acerca dos dados experimentais
Utilizando-se os instrumentos, esquema de conexões e
procedimentos descritos nas subseções 2.1, 2.2 e 2.3, foram
obtidos diversos valores para os tempos de acomodação em
4 resposta a sinais de tensão AC em diferentes freqüências.
Também observou-se que os tempos de aquisição das
leituras não variam significativamente com a amplitude do
sinal de entrada. Por isso, doravante considera-se a
freqüência como variável independente, e o tempo de
A B acomodação da leitura como a variável dependente. Os
dados utilizados neste trabalho correspondem a uma
3 1 amplitude de 5Vrms para a excitação AC.

3. A CONSTRUÇÃO DE MODELOS EMPÍRICOS


C Dado o custo operacional em se determinar os tempos de
acomodação das leituras para diferentes freqüências da
tensão de entrada AC. Uma alternativa de menor custo
2
consiste em supor a existência de uma lei ou função que
relacione estas duas variáveis e então tentar obter um
modelo que aproxime a função original desconhecida. Isto
pode ser feito por meios empíricos, isto é, com base em
dados experimentais. De posse de tal modelo, seria possível
Fig. 1. Esquema das conexões
ter-se uma predição para o tempo de acomodação da leitura
Na figura 1 está ilustrado o esquema de conexões utilizado. para uma dada freqüência do sinal de excitação.
Onde tem-se
3.1 O Ajuste por meio de Polinômios
A: Trigger Externo, pulso TTL que inicia a contagem do
tempo pelo freqüencímetro e a integração feita pelo MD Neste trabalho, os modelos empíricos são construídos com
Agilent 3458A. base em polinômios. Sabe-se que estes modelos apresentam
uma dependência linear da variável de resposta
B: Ext Out, pulso TTL que indica o término da integração
relativamente aos seus coeficientes ou parâmetros. Porém
feita pelo MD Agilent 3458A.
dependendo do grau do polinômio a variável de resposta
C: Tensão AC. pode relacionar-se de forma linear ou não linear com
respeito a variável independente.
2.3 Procedimentos Considere que estejam disponíveis pares de dados (xr ,yr ) (r =
1, …, m), onde xr é um valor da variável dependente x e y r é
1. O Multicalibrador Fluke 5500A é ajustado para excitar o
o valor correspondente observado para a variável
MD Agilent 3458A, com uma tensão AC (C) com uma certa
dependente y. Supõe-se a existência de uma lei segundo a
freqüência .
qual os valores de y são produzidos a partir de x pela
2. O Gerador de Sinal Agilent gera um pulso TTL (A), o aplicação de alguma função desconhecida f(x). Deseja-se
qual inicia a contagem do tempo feita pelo Freqüencímetro ajustar aos dados y1 , …,ym um polinômio yk(x) de ordem ou
Agilent, e a integração feita pelo MD Agilent 3458A. grau k, dado por
3. Ao término da integração, o MD Agilent 3458A gera um y k (x ) = a 0 + a1 x +L + ak x k . (1)
pulso TTL (B), que finaliza a contagem do tempo no
Freqüencímetro Agilent. onde a 0 , a 1 , … , a k são os coeficientes ou parâmetros
ajustáveis do polinômio.
4. São feitas anotações sobre o tempo indicado pelo
Freqüencímetro Agilent e da freqüência da tensão AC. Ajustar yk(x) aos dados significa que
5. Muda-se a freqüência da tensão aplicada pelo e r é pequeno para cada r = 1, …, m. (2)
Multicalibrador Fluke 5500A, e retorna-se ao passo 1,
quantas vezes forem necessárias. Onde o erro er é dado por
Obs: para cada freqüência diferente são feitas três medidas e r = y k (x r ) − y r . (3)
do tempo de acomodação, isto é, do tempo gasto na
.
integração do sinal C. Na equação (3) o operador | | produz o valor absoluto do
argumento.
Dependendo do grau k do polinômio e do número de pontos
(xr ,yr ) disponíveis, pode-se ter um problema de Interpolação
ou um problema de Ajuste no atendimento das condições em
(2). Caso k+1≥m, existem parâmetros a r em número quadrados [3]. Em um mínimo de E os parâmetros a 0 , …, a k
suficiente tal que o erro yk(x r )-yr pode ser feito nulo para devem satisfazer as equações (8).
cada valor de r. Ou em outras palavras, se os coeficientes ar
A solução das equações normais pode ser obtida por meio
forem selecionados de modo a fazer com que a curva yk(x)
de rotinas disponíveis em diversos pacotes computacionais.
passe por cada ponto (xr ,yr ), então diz-se que o problema é
Algoritmos para a solução de (8) não constituem-se a ênfase
de interpolação polinomial. Porém quando k+1<m, não é
deste trabalho e portanto não serão tratados aqui. Leitores
possível fazer com que todos os erros yk(x r )-yr sejam feitos
interessados podem recorrer à referência [2]. Sabe-se que
nulos simultaneamente. Neste caso as m condições definidas
embora a equação normal seja fácil de ser deduzida, a
em (2) competem entre si. Desde que os pares (xr ,yr ) são
solução da mesma para polinômios de ordem superior a k=8
considerados como fixos, o vetor e cujas componentes são
torna-se difícil e sujeita a erros numéricos. De forma
os m valores er definidos em (3), depende somente dos
genérica pode-se dizer que cada método particular
parâmetros a 0 , …, a k A forma precisa de como tratar a
selecionado para a solução de (8) vai encontrar dificuldades
competição aludida acima depende da definição de uma
em fazê-lo a partir de algum valor elevado de k [3].
norma para o vetor de erro e. Em geral no caso k+1<m
deseja-se aproximar a lei f(x) desconhecida, e a partir daí
calcular y para algum x que não consta nos dados 4. A SELEÇÃO DO MODELO
experimentais disponíveis. Este é o problema de ajuste de
Nesta seção trata-se o problema da seleção do melhor
dados [2] .
polinômio para o conjunto de dados experimentais
Vale ressaltar que as técnicas de interpolação e ajuste são disponíveis. Em simples palavras, supondo-se a
ambas técnicas de aproximação de funções. Porém devido a disponibilidade de programas para a solução das equações
prováveis erros experimentais nos dados (xr ,yr ), o ajuste é normais para polinômios de diferentes graus k, surge a
preferível à interpolação, visto que ele tende a produzir uma questão: como escolher o correto grau k a ser utilizado?
função que representa um comportamento médio, em vez de Como dito na seção anterior, valores elevados de k tendem a
procurar uma função que interpola os m pontos disponíveis produzir interpolação, o que embora produza um valor
[2]. No que segue emprega-se a técnica de ajuste. pequeno para o índice definido em (4), também implica na
assimilação dos ruídos inerentes aos dados.
Um critério comumente empregado para medir a qualidade
do ajuste tem como base a norma euclidiana do vetor de erro A seguir são apresentadas duas técnicas estatísticas para a
e seleção da ordem k do melhor polinômio.

Ε (a 0 , a1 , L , a k ) = ∑ {y r − y k (x r )}2
m
(4) 4.1 Seleção do Modelo com Base na Teoria de Regressão
r =1
Conforme descrito em [3], este método assume que as
Com base neste índice de desempenho busca-se determinar amostras {yr } são independentes e normalmente distribuídas
a 0 , …, a k que minimizam E . Na literatura técnica este h +1
problema de minimização é também denominado de acerca de alguma tendência polinomial y h +1 ( x) = ∑ ri x i ,
i= 0
Problema dos Mínimos Quadrados.
com variância σ2 independente de r. Então adota-se a
Se a função quadrática E tem um mínimo para a 0 , …, a k, hipótese nula de que rh+1 = 0, não importando quais valores
implica que r0 , … , rh e σ2 possam ter. O teste estatístico da hipótese
nula de que rh+1 = 0, pode ser estabelecido de forma simples
∂E
= 0 , para todo i = 0,1,…,k. (5) com base em σ h2 e σ h2+1 , como segue. Seja yk(x) o
∂a i
polinômio de grau k que melhor se ajusta ao dados yr no
Após calcular as derivadas indicadas em (5), ver referência sentido de minimizar o índice E definido em (4). Define-se
[3], define-se os escalares 2
δk2 = ∑ {y r − y k ( x r )} .
m
(9)
g ih = ∑ ( x r ) h ( x r ) i = ∑ ( x r )h +i .
m m
(6) r =1
r =1 r =1
e
γ i = ∑ y r ( xr ) .
m
i
(7) δ k2
r =1 σ k2 = . (10)
m − k −1
Então obtém-se o seguinte s istema de equações
Sob a hipótese nula, o valor esperado da estatística σ h2 é
g 00 a 0 + g 01 a1 + L + g 0 k a k = γ 0
independente de k, para k = h+1, h+2, … , m-2. Onde m é o
L L L L L L L L (8)
número de pontos experimentais disponíveis.
g k 0 a 0 + g k1 a 1 + L + g kk a k = γ k
A aplicação prática deste método requer que a variância σ k2
Estas equações são chamadas de equações normais do
seja calculada para k = 1, 2, … . Enquanto for observado
problema de ajuste de dados segundo o critério de mínimos
decrescimento significativo em σ k2 a medida que k é
incrementado, pode-se presumir que yk(x) é um modelo 1. Particione o conjunto de dados em K partições disjuntas.
válido para os dados. Se após um certo valor de k = k 1 não Por simplicidade assume-se m = r × K, tal que existem r
há decréscimo significativo emσ k2 , isto é, σ k2 ≈ σk21 para observações em cada partição.

todo k ≥ k 1 . Então pode-se presumir que os dados yr são 2. Separe uma das partições para propósito de validação.
representados de forma realística pelo polinômio y k1 ( x ) . O 3. Use os m-r pontos remanescentes para ajuste do modelo.
desenvolvimento de testes adequados para encontrar k 1 4. Use o modelo recém obtido com o conjunto de teste e
depende de experiência. Neste trabalho o procedimento
calcule o erro de predição parcial definido em (12).
implementada para encontrar k 1 consiste em selecionar o
grau k para o qual a fração de decréscimo na variância σ k2+1 5. Repita os passo de 2 a 4 até que todos as K partições
tenham sido utilizadas como conjunto de teste.
relativamente a σ k2 é inferior a 5%. Ou seja,
6. Determine o erro de predição, que é a média dos K erros.
σk2 − σ k2+1 Em muitas situações nas quais o conjunto de observações é
selecionar k, tal que 0 < < 0. 05 (11)
σk2 relativamente pequeno o analista pode escolher K = m,
resultando em conjuntos de teste de tamanho 1. Isto vai
O critério de seleção definido pelas equações (9) e (10) requerer que o modelo seja ajustado m vezes, esta escolha
também é tratado, embora com menos detalhes, em pode resultar em um custo computacional elevado se m é
literaturas próprias do campo da metrologia, tais como [1], grande. No presente trabalho os conjuntos de teste tem
[4]-[6]. comprimento igual a 1.

4.2 Seleção de Modelo com Base em Validação-Cruzada


(Cross-Validation) 5. SIMULAÇÕES E DISCUSSÃO DE RESULTADOS

Um procedimento freqüentemente adotado no ajuste de Os dados experimentais disponíveis são formados por pares
modelos, consiste em particionar os dados disponíveis em (fi ,ti ) em que a variável independente fi corresponde a
dois conjuntos, com seleção aleatória das amostras freqüência do sinal senoidal sob medição e ti corresponde ao
componentes. Um dos conjuntos, dito de treinamento, é tempo de acomodação para a leitura. O conjunto de pontos
utilizado na construção do modelo, e o outro conjunto, dito utilizados na seleção e ajuste dos modelos é composto por
de teste ou de validação, é utilizado para estimar o erro de 74 pares do tipo (fi ,ti ). A fim de amenizar os problemas de
predição do modelo. Se existem n pontos (xj ,yj ) no conjunto mal condicionamento numérico associados à solução da
de teste, uma estimativa do erro de predição é dada por equação normal (8) para valores elevados de k, em todas as
situação os dados foram normalizados [3] segundo

( ( ))
2
1 n
Ep = ∑ y j − yk x j . (12) z i = ξi × 2 ξ 0 . (13)
n j =1
onde zi representa a variável na escala primitiva e ξ
Note que em (12) yk(x j ) é calculado a partir do modelo
obtido pelo uso do conjunto de treinamento, avaliado no representa a variável na nova escala. O mapeamento (13) é
ponto xj do conjunto de teste. Contudo, se o conjunto de aplicado separadamente a cada uma das variáveis
dados não é grande, particioná-lo em dois apresenta a independente e dependente conhecidas. As variáveis da nova
desvantagem óbvia de não utilizar todos os dados escala ξ são tais que
disponíveis no ajuste do modelo, o que pode ter impacto
sobre a qualidade do modelo obtido. Para contornar este − 2 36 +1 ≤ ξ 0 ≤ 236 −1 . (14)
problema, pode-se particionar repetidamente os dados em
ξi <1 (15)
diversos conjuntos de treinamento e de teste. Esta é a idéia
fundamental a respeito da validação-cruzada.
e
A forma mais geral do procedimento de validação cruzada é
1
denominada de Validação-Cruzada em K Blocos (K- fold ≤ max 1≤i ≤m ξi < 1 (16)
cross-validation). A idéia básica é particionar os dados em K 2
partições de tamanhos aproximadamente iguais, com seleção
aleatória das amostras componentes. Então, uma partição é
reservada para teste e o restante dos dados é utilizado para
ajustar o modelo. O conjunto de teste é utilizado para
calcular o erro de predição. Este procedimento é repetido até
que todas as K partições tenham sido utilizadas como
conjunto de teste. A média dos erros de predição obtidos
para cada conjunto de teste é o erro de predição estimado
para o modelo. Abaixo são descritos os passos envolvidos
na validação-cruzada [7],[8]
Para uma análise mais completa, fez-me uma comparação de
desempenho entre um polinômio de 6a. ordem e um
polinômio de 22a. ordem. Para tanto, o conjunto de dados
utilizados, contendo 23 amostras, é desconhecidos de ambos
os modelos. A figura 6 ilustra o comportamento de cada um
dos modelos. Os erros de predição obtidos foram de 25.81 e
29.89 para os modelos de 6a. e 22a. ordens, respectivamente.
Portanto, o modelo de 6a. ordem apresenta desempenho
superior para amostras não contidas no conjunto de
treinamento.

Fig. 2 Variâncias para a seleção de modelo

Fig. 5 Erros de predição para


modelos de ordem elevada

Fig. 3 Variâncias para modelos de


ordem elevada

Fig. 4 Erro de Predição, Validação


Cruzada

As figuras 2 e 3 ilustram os valores de variância para


polinômios de diferentes graus ajustados aos dados.
Conforme o procedimento descrito na subseção 4.1. Note
que segundo este método de seleção de modelos, o melhor
modelo para os dados corresponde a um polinômio de
ordem 6. No gráfico a escala das ordenadas corresponde aos
dados normalizados.
Fig. 6 Ajustes produzidos por
Nas figuras 4 e 5 pode-se observar o comportamento do erro
polinômios de 6 a . (-) e 22a . (--) ordens
de predição calculado segundo o critério de validação
cruzada discutido na subseção 4.2. Segundo este critério o
modelo que produziria menor erro de predição tem ordem
igual a 6.
6. CONCLUSÕES Sendo assim, são necessários maiores estudos com base em
outros conjuntos de dados oriundos de outros experimentos,
Neste trabalho buscou-se modelar por meio de polinômios a a fim de julgar o potencial de aplicação da técnica de
relação entre o tempo de acomodação das leituras da validação cruzada na área de metrologia, como alternativa
grandeza tensão AC em função da freqüência do sinal. A aos métodos de seleção de modelos em uso corrente.
obtenção de um bom modelo para esta relação seria de
grande utilidade por permitir a definição de um “time-out”
REFERÊNCIAS
adequado para os ensaios envolvendo calibrações
automáticas, otimizando assim o processo de aquisição das [1] R. H. Dieck, “Measurement Uncertainty”, Instrument
leituras. Além disso apresenta-se uma discussão a respeito Society of America, 1997.
da seleção de modelos. Tal discussão mostra-se útil visto [2] D. M. Cláudio, J, M. Marins “Cálculo Numérico
que em grande parte da literatura associada à metrologia os Computacional: Teoria e Prática”, Atlas, 2 a . Edição, 1994.
modelos considerados são polinomiais [1],[4]-[8].
[3] G. E. Forsythe, “Generation and Use of Orthogonal
Na figura 6 pode-se observar que os dados experimentais Polynomials for Data-Fitting with a Digital Computer”, J.
são atípicos por apresentarem descontinuidades na região de Soc. Indust. Appl. Math., vol. 5, No. 2, , pp. 75-88, June
maior variação dos tempos de acomodação, no caso na faixa 1957.
que vai de 10 a 1000 Hz. Estas descontinuidades são [4] J. H. Vuolo “Fundamentos da Teoria de Erros”, Ed. Edgard
caracterizadas por variações abruptas no tempo de Blücher Ltda., 2a . Edição, 1996.
acomodação de algumas leituras, embora correspondentes a
[5] I. Lira “Evaluating the Measureme nt Uncertainty:
valores de freqüência muito próximos. Dada a grande Fundamentals and practical guidance”, IOP Publishing Ltd,
dificuldade oferecida pelos dados experimentais, os modelos 2002.
polinomiais apresentaram um desempenho pobre no que se
refere a predição. Em verdade o presente conjunto de dados [6] S. G. Rabinovich “Measurement Errors and Uncertainties:
vai oferecer obstáculos na obtenção de bons modelos de Theory and Practice”, Springer-Verlag 2nd Ed, 2000.
predição mesmo para métodos de regressão mais bens [7] W. L. Martinez, A. R. Martinez “Computational Statistics
elaborados [8], visto que esses métodos também adotam a Handbook with MATLAB”, Chapman & Hall/CRC, 2002.
premissa de que a função desconhecida que gerou os dados é [8] V. Cherkassky, F. Mulier “Learning From Data: Concepts,
suave. Theory, and Methods”, John Wiley & Sons, Inc., 1998.
Nas simulações realizadas não foi possível detectar qualquer
indício de superioridade relativa entre os métodos de seleção Autor: A comunicação com os autores pode ser feita através do e -
de modelos apresentados. Ambos indicaram modelos de mail projetoCalibracao@yahoogrupos.com.br ou por meio do
mesma ordem. Contudo do ponto de vista computacional o telefone 0xx-91-210-8373 (Eletronorte).
método advindo da teoria de regressão apresenta custo
computacional menor quando comparado com a validação-
cruzada. Ainda assim sabe-se que ao contrário do primeiro,
o método de validação-cruzada não requer a adoção a priori
de hipóteses concernentes a distribuição estatística dos
dados experimentais ou a respeito das características dos
modelos utilizados no ajuste de dados.

Anda mungkin juga menyukai