Anda di halaman 1dari 7

SI, existe una gran diferencia.

Aunque en el lenguaje de calle, ambos términos son sinónimos, sin


embargo, metrológicamente, los términos exactitud y precisión, aunque relacionados entre sí, no
deben intercambiarse, ya que la diferencia entre ambos es significativa.

El Vocabulario Internacional de términos fundamentales y generales de Metrología (VIM,3ª ed.) los


define como sigue:

Exactitud: Proximidad entre un valor medido y un valor verdadero del mensurando.

Precisión: Proximidad entre las indicaciones o los valores medidos obtenidos en mediciones
repetidas de un mismo objeto, o de objetos similares bajo condiciones especificadas. Las
“condiciones especificadas” pueden ser condiciones de repetibilidad, condiciones de precisión
intermedia, o condiciones de reproducibilidad (véase la norma ISO 5725-3:1994).

Así pues, el concepto de exactitud se refiere a la capacidad de obtener valores o indicaciones


próximas al valor verdadero de la magnitud medida. Por tanto, una medición, o el resultado, serán
más exactos cuanto más pequeño sea el error sistemático de medida; es decir, cuanto menor sea
la diferencia entre el valor medio de los sucesivos resultados obtenidos y el valor
convencionalmente verdadero de la magnitud.

Sin embargo, la idea de precisión refleja la capacidad de obtener valores o indicaciones próximas
entre sí al efectuar mediciones repetidas. Una medición, o el resultado, será pues más preciso
cuanto menor sea la dispersión que presentan entre sí los sucesivos resultados obtenidos.

De lo anterior se deduce que el resultado de una medición, o un instrumento, puede ser:

Exacto pero no Preciso pero no


Exacto y preciso Ni preciso ni exacto
preciso exacto

Valor medio muy Gran dispersión de


Resultados muy Resultados muy
cercano al valor los resultados en
próximos entre sí, próximos entre sí
verdadero, pero gran torno al valor medio
con un valor medio pero valor medio
dispersión de los y valor medio
muy cercano al valor alejado del valor
resultados en torno alejado del valor
verdadero (1) verdadero (3)
al valor medio (2) verdadero (4)

Exactitud, Precisión y Redondeo.

Asociados al tema de medición con variables numéricas, hay conceptos que es conveniente
distinguir y controlar, en primer lugar se verán dos de los más importantes: exactitud y precisión.

EXACTITUD Y PRECISIÓN.
La exactitud de una medición hace referencia a su cercanía al valor que pretende medir.

La precisión está asociada al número de cifras decimales utilizadas para expresar lo medido.

Un instrumento inexacto nos entrega resultados sesgados, "desplazados"; uno impreciso,


resultados "ambiguos", "difusos".

Así, por ejemplo, una pesa es exacta si nos entrega el peso correcto, sin agregarle ni quitarle.
Asimismo, es más precisa en la medida que el aparato usado es capaz de detectar diferencias de
peso más pequeñas.

La exactitud y precisión exigibles a una medición, dependerán de los objetivos del estudio que la
utiliza.

La precisión de un resultado estadístico debe estar de acuerdo con la precisión de los datos
originales y con las exigencias propias del proyecto que los usa.

Es fácil cometer el error de responder usando más decimales que los contenidos en las mediciones
iniciales, aumentando artificialmente la precisión por la propia capacidad de cálculo de los
computadores.

Por otra parte, es de suma importancia cuidar que, durante el proceso de cálculo intermedio, no
se pierda precisión innecesariamente. Es importante mantener el máximo posible de decimales,
pues esto ayuda a controlar la aparición y propagación de errores numéricos que invaliden los
resultados.

Estos son errores de precisión y exactitud ajenos al proceso de medición inicial y son introducidos
típicamente por los métodos numéricos usados y por la aritmética del computador que tiene una
precisión finita para representar interiormente a los números.

El último tema mencionado en el párrafo anterior, es un tema complejo que no se discutirá


mayormente, pero es importante mencionarlo y mostrar un ejemplo ilustrativo para entender su
alcance.

Ejemplo.

Nota. Este ejemplo debe usarse una vez que los alumnos hayan aprendido a calcular por su
cuenta la desviación estándar.

Suponga que se usa una calculadora básica que permite hacer cálculos estadísticos. Es común que
las calculadoras más simples sean susceptibles de cometer errores de redondeo que llegan a
producir errores en los resultados finales.

El caso que se presenta corresponde a un cálculo muy común al trabajar con datos estadísticos:
cálculo de la 'desviación estándar'.

Como caso particular úsese los números 987967529, 987967530 y 987967531.


Al calcular correctamente la desviación estándar muestral de estos tres datos se obtiene el valor 1.

Sin embargo, es posible que una calculadora simple entregue el valor 0 como resultado.

Esto puede ocurrir porque el algoritmo usado eleva al cuadrado los datos originales y el valor
obtenido sobrepasa la precisión que la calculadora puede mantener internamente. Esto hace que
el proceso de cálculo interno elimine las cifras menos significativas, donde justamente, se
encuentran las diferencias entre los números usados.

En resumen, mantener la precisión y la exactitud apropiada en un proceso de cálculo, requiere de


cuidados por parte del usuario. Afortunadamente, este problema está habitualmente resuelto en
los buenos programas computacionales que se usan en estadística y no debería preocupar más
allá de la razonable verificación de resultados mediante cálculos paralelos. De preferencia con
otros programas.

El ejemplo anterior tiene por objeto comprobar empíricamente, por aquellos usuarios que recién
se aventuran en cálculos hechos con máquinas que prácticamente actúan como ‘cajas negras’,
que todo procedimiento debe ser controlado con un sentido crítico. No porque un cálculo sea
hecho con una máquina con grandes capacidades va a liberar al usuario de usar su propio criterio
para verificar los resultados.

Precisión se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de


una magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida común de la
variabilidad es la desviación estándar de las mediciones y la precisión se puede estimar como una
función de ella.

Exactitud se refiere a que tan cerca del valor real se encuentra el valor medido. En términos
estadístico, la exactitud está relacionada con el sesgo de una estimación. Cuanto menor es el
sesgo más exacta es una estimación.

Cuando expresamos la exactitud de un resultado se expresa mediante el error absoluto que es la


diferencia entre el valor experimental y el valor verdadero.

Ejemplo 1

Varias medidas son como flechas disparadas hacia un objetivo. La exactitud describe la proximidad
de las flechas al centro del objetivo. Las flechas que impactaron más cerca del centro se
consideran más exactas. Cuanto más cerca están las medidas a un valor aceptado, más exacto es
un sistema.

La precisión, en este ejemplo, es el tamaño del grupo de flechas. Cuanto más cercanas entre sí
estén las flechas que impactaron el objetivo, más preciso será el sistema. Hay que notar que el
hecho de que las flechas estén muy cercanas entre sí es independiente al hecho que estén cerca
del centro del objetivo. En sí, se puede decir que la precisión es el grado de repetibilidad del
resultado. Se podría resumir que exactitud es el grado de veracidad, mientra que precisión es el
grado de reproductibilidad.

Ejemplo 2

Un reloj analógico, de manecillas, desplaza su minutero "sólo de minuto en minuto", si bien lo


hace en absoluta sincronía con el horario oficial o "real" (que es el objetivo ). Un segundo reloj
utiliza minutero, segundero, incluso está dotado de un sistema de medición de décimas de
segundo. Si observamos que su horario, no coincide plenamente con el horario oficial o real (que
sigue siendo el objetivo de todo reloj), concluiremos que el primer reloj es altamente exacto,
aunque no sea preciso, mientras que el segundo, es altamente preciso, aunque no se muestra
exacto...al menos en nuestro ejemplo.

Idealmente un instrumento es exacto y preciso con medidas todas cercanas entre sí y, a la vez,
cercanas al valor deseado.

La exactitud y precisión del proceso de medida son establecidas por la medida repetida de algún
estándar de unidad de referencia que sea traceable.

La precisión es normalmente caracterizada en términos de desviación estándar de las medidas.

La precisión no puede identificarse en medidas de diferentes magnitudes, en cambio, la exactitud


sí lo puede.

Fuente(s):

Wikipedia

Cálculo de errores: error absoluto, error relativo.

Bien sea una medida directa (la que da el aparato) o indirecta (utilizando una fórmula) existe un
tratamiento de los errores de medida. Podemos distinguir dos tipos de errores que se utilizan en
los cálculos:

 Error absoluto. Es la diferencia entre el valor de la medida y el valor tomado como exacto.
Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la
resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida.
 Error relativo. Es el cociente (la división) entre el error absoluto y el valor exacto. Si se
multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error
absoluto puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser
por exceso o por defecto. no tiene unidades.

Cifras significativas.

Las cifras significativas de una medida están formas por los dígitos que se conocen no afectados
por el error, más una última cifra sometida al error de la medida. Así, por ejemplo, si digo que el
resultado de una medida es 3,72 m, quiero decir que serán significativas las cifras 3, 7 y 2. Que los
dígitos 3 y 7 son cifras exactas y que el dígito 2 puede ser erróneo.

Ejemplo. Medidas de tiempo de un recorrido efectuadas por diferentes alumnos: 3,01 s; 3,11 s;
3,20 s; 3,15 s

1. Valor que se considera exacto:

2. Errores absoluto y relativo de cada medida:

Medidas Errores absolutos Errores relativos

3,01 s 3,01 - 3,12 = - 0,11 s -0,11 / 3,12 = - 0,036 (- 3,6%)

3,11 s 3,11 -3,12 = - 0,01 s -0,01 / 3,12 = - 0,003 (- 0,3%)

3,20 s 3,20 -3,12 = + 0,08 s +0,08 / 3,12 = + 0,026 (+ 2,6%)

3,15 s 3,15 - 3,12 = + 0,03 s +0,03 / 3,12 = + 0,010 (+ 1,0%)

Cifras significativas.

Las cifras significativas son también conocidas como dígitos significativos y se desarrollaron para
designar formalmente la confiabilidad de un valor numérico. Él numero de cifras significativas es él
numero de dígitos mas un dígito estimado que se pueda usar con confianza.

Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda usarse con
confianza. El concepto de cifras significativas tiene dos implicaciones importantes en el estudio de
los métodos numéricos.
1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar
criterios para especificar que tan precisos son los resultados obtenidos.

2.- Aunque ciertos números representan número específicos, no se pueden expresar exactamente
con un número finito de cifras. A la omisión del resto de cifras significativas se le conoce como
error de redondeo.

Ejemplos de Cifras Significativas:


0.000 018 45
0.000 184 5
0.001 845

Los ceros no son siempre cifras significativas ya que pueden usarse solo para ubicar el punto
decimal. Los números antes mencionados tienen cuatro cifras significativas. Cuando se incluyen
ceros en números muy grandes, no se ve claro cuantos ceros son significativos si es que los hay.

Precisión.

La precisión se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas


de una magnitud. Cuanto menor es la dispersión mayor la precisión. Es decir la precisión se refiere
a qué tan cercano está un valor individual medido o calculado respecto a los otros. En pocas
palabras esto es lo cerca que los valores medidos están unos de otros.

Se puede decir entonces que la precisión en Métodos Numéricos se refiere:

1) Al número de cifras significativas que representan una cantidad

2) la extensión en las lecturas repetidas de un instrumento que mide alguna propiedad física.

Es importante mencionar que los datos precisos pueden ser inexactos.


Obtener datos altamente precisos puede ser verdaderamente difícil y costoso.

Exactitud.

La exactitud se refiere a que tan cercano está el valor calculado del valor verdadero. Es decir es la
aproximación de un número al valor numérico que se supone representa.

Se puede decir entonces que la exactitud es el grado de concordancia entre el valor verdadero y el
obtenido. Por tanto, la exactitud se expresa como suma de dos términos: la precisión y la
veracidad

Incertidumbre.

Incertidumbre es la expresión del grado de desconocimiento de un resultado.

Esto es que incertidumbre refleja, por tanto, duda acerca de la veracidad del resultado obtenido
una vez que se han evaluado todas las posibles fuentes de error y que se han aplicado las
correcciones oportunas. Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones
a un valor verdadero

Entonces la incertidumbre nos da una idea de la calidad del resultado ya que nos muestra un
intervalo alrededor del valor estimado dentro del cual se encuentra el valor considerado
verdadero.

La incertidumbre puede derivarse de una falta de información Puede tener varios tipos de origen,
por ejemplo errores cuantificables en los datos..

Sesgo.

La inexactitud es conocida como sesgo se refiere a que tan cercano está el valor calculado del
valor verdadero.

Es decir sesgo es un error que aparece en los resultados.es entonces un alejamiento sistemático
del valor verdadero a calcular.

Un sesgo es un error sistemático que hace que todas las medidas estén desviadas en una cierta
cantidad. También se dice que es una característica de una medición o de una estimación
estadística tal que los resultados obtenidos al repetir la medición o la estimación están afectados
por errores sistemáticos en relación con el valor convencionalmente verdadero.

Cómo calcular el porcentaje de error

El cálculo de porcentaje de error se utiliza para evaluar elgrado de error en los cálculos y los datos.
El cálculo del porcentaje de error es simple y conciso. Estos son los pasos para evaluar el porcentaje
de error

Instrucciones

1. La fórmula para calcular el porcentaje de error es: [((valor estimado-valor actual)/valor


actual)*100%]

2. Resta el valor real, el valor correcto, de tu valor estimado. El resultado puede ser un valor
negativo, sin embargo déjalo en negativo. El resultado se conoce como "error absoluto".

3. Divide el error absoluto, el cual has calculado en el paso anterior, entre el valor real. El
resultado debería ser un número inferior a 1, como 0,11 o 0,95. El valor resultante se
conoce como "error relativo".

4. Para encontrar el valor del porcentaje de error, multiplica el error relativo del paso
anterior por el 100%. No te olvides de incluir el signo del tanto por ciento después de la
parte numérica de la respuesta.

Anda mungkin juga menyukai