Existem vrios tipos de estudos para medies por atribuitos. So eles : 1. Estudo por Atributos do AIAG1 Mtodo Curto Mtodo Longo 2. Mtodo da Capabilidade do Instrumento2 3. Mtodo Kappa3 4. Inter Class Correlation (ICC)
2) Identifique os inspetores (que deveriam ser qualificados e experientes), e os instrumentos. 3) Faa com que cada inspetor, independentemente e em ordem aleatria, verifique as peas e determine se estas passam ou no. Repita o processo. 4) Inclua os dados na planilha, para reportar a eficcia do Sistema de Medio. 5) Documente os resultados. Implemente aes apropriadas para corrigir o processo de inspeo, se necessrio. 6) Repita o estudo para verificar a eficcia das aes.
Seleo das Peas da Amostra As peas do estudo deveriam representar toda a faixa de variao.
45% das peas do seu estudo deveriam ser defeituosas 45% das peas deveriam ser livres de defeitos 10% (se possvel) deveriam ser marginais
1 2 3
4 5 6
1. Selecione SPC XL do menu principal 2. Escolha MSA (gage capability) 3. Escolha Attribute Analysis
Marginal .80 - .90 .05 - .10 .02 - .05 .05 - .80 ou 1.20 - 1.50
Inaceitvel < .8 > .10 > .05 < .50 ou > 1.50
10
11
Quando:
Classificaes so binrias (verdadeiro/falso, bom/ruim)
Pressupostos:
Kappa representa a concordncia absoluta entre as classificaes. Kappa trata todos os erros de classificao igualmente. Os coeficientes de Kendall medem as associaes entre as classificaes. Os coeficientes de Kendall no tratam os erros de classificao igualmente. As consequncias de errar a classificao de um tem perfeito (nota 5) como ruim (nota 1) so mais srias do que classific-lo como bom (nota 4).
Pobservado - Pacaso
Kappa =
1 - Pacaso
A regra geral para interpretar o Kappa : < 0.7 O sistema de medio requer ateno 0.7 0.9 Geralmente aceitvel, melhorias podem ser necessrias, dependendo da aplicao > 0.9 Excelente Sistema de Medio
Pedido 1 2 3 4 5 6 7 8 9 10
Juz 1 Bom Bom Bom Ruim Bom Bom Bom Bom Ruim Bom 80% Bom
Juz 2 Bom Ruim Bom Ruim Bom Bom Ruim Ruim Ruim Bom 50% Bom
Concordncia S N S S S S N N S S 70%
15
A proporo onde os inspetores concordam : Pobservada = 0.7 Qual proporo pode ter ocorrido por acaso? Pacaso = (P juiz 1 Boas)(P juiz 2 Boas) + (Pjuiz 1 Ruins)(Pjuiz 2 Ruins) Pacaso = (.8)(.5) + (.2)(.5) = .5 Kappa compara a proporo de concordncia entre os inspetores, aps remover a concordncia por acaso. Pobservada - Pacaso
Kappa =
1 - Pacaso 1. Qual seria o Kappa se os inspetores concordassem em todas as peas? 2. Como voc interpretaria um Kappa igual a Zero? 3. Qual seria o Kappa se os inspetores nunca concordassem?
16
Baseado nos resultados deste estudo de medio, que aes voc recomenda?
17
Usando os dados do exerccio anterior, calcule o Kappa usando uma planilha Excel chamada KappaSolver.xls
18
Prs
Os valores de Kappa so facilmente calculados em softwares prontamente disponveis (ex., Excel, Minitab, SAS, SPSS, etc.). Os valores de Kappa so apropriados para testar se as concordncias excedem os nveis do acaso, para classificaes binrias e nominais.
Contras
Kappa no realmente uma medida de concordncia livre do acaso.
Kappa um ndice geral de concordncia. No faz distino entre os diversos tipos e fontes de discordncia.
19
Contras
Kappa influenciado pela distribuio e pelo tamanho da base. Como resultado, o Kappa raramente comparvel entre estudos, procedimentos ou populaes (Thompson & Walter, 1988; Feinstein & Cicchetti, 1990).
O Kappa pode ser baixo mesmo que hajam altos ndices de concordncia, e mesmo que as classes individuais sejam precisas. Saber se um valor de Kappa implica em um bom ou mau sistema de classificao, ou sistema de diagnstico, depende de qual modelo foi definido para a tomada de deciso dos inspetores (Uebersax, 1988). Com dados de categorias valorados, deve-se escolher os pesos arbitrariamente, para se obter um Kappa (Maclure & Willet, 1987).
20
Contras
Kappa requer que os dois inspetores/procedimentos usem as mesmas categorias de classificao. Existem situaes onde estamos interessados em medir a consistncia das classificaes, para inspetores usando diferentes categorias (ex., um usa uma escala de 1 a 3, e outro usa uma escala de 1 a 5).
21
22
3) Deveriam ser consideradas algumas das alternativas para se fazer uma tomada de deciso consciente.
23
24
25
26
Uma melhor maneira de usar o Kappa para quantificar a concordncia dos avaliadores seria, sob certas condies, aproximar a correlao intra-classe. Mas isto tambm muito problemtico no sentido que: 1) estas condies no so sempre atingidas, e 2) esta quantificao poderia ser obtida diretamente pelo uso da correlao intra-classe (ICC).
27
28
Judge 1 Judge 2 Judge 3 1 2 1 2 2 3 2 2 2 3 3 3 2 2 3 3 3 3 1 2 1 1 1 1 2 2 2 1 1 1 Each Judges ratings ICC = 0,795212766 2 2 3 ICC = 0,920944559 Average of Judges ratings 3 3 3 2 2 2 3 3 3 Estes resultados mostram um alto grau de CONCORDNCIA. 1 2 2 Isto significa um reflexo muito preciso da variao na tomada de deciso baseada no sistema de medio.
29
Se voc omitir a interao do modelo, esta ser identificada como erro (MSInsp*Pea = MSErro)
30
ICC_Solver.XLS
31
Referncias
1. Automotive Industry Action Group (AIAG) (1995). Measurement Systems Analysis Reference Manual. Chrysler, Ford, General Motors Supplier Quality Requirements Task Force. 2. Douglas C. Montgomery and George C. Runger (1993-4). "Gauge Capability and Designed Experiments. Part I: Basic Methods," Quality Engineering 6(1), pp.115-135. 3. Minitab Statistical Software, Release 13.3 or higher
32