Anda di halaman 1dari 6

PRÁCTICA No.

1
ERROR E INCERTIDUMBRE

I. INTRODUCCIÓN
Cuando se miden magnitudes físicas difícilmente los valores obtenidos corresponden al valor
verdadero de su medida, aún y cuando se utilicen aparatos con mucha precisión o se hagan con sumo
cuidado.
El error en las medidas puede presentarse por diversas causas; las más comunes son la construcción
y calibración del instrumento de medida y las lecturas hechas.
Para poder dar un resultado lo más aproximado al real es conveniente realizar un análisis de error;
es decir, determinar la fuente de error y su magnitud.
Cuando se registra el resultado de una medición, se debe de señalar la incertidumbre, para lo cual se
indica cuánto más o menos existe de error; es decir, se requiere tomar varias veces las medidas y en todas
ellas usar el mismo instrumento.
El valor de la incertidumbre será la mitad de la diferenciad en la medición y se expresa a continuación
del número medido, seguido del símbolo ± (que se lee más-menos).
Cuando son varias las mediciones, se saca un promedio con dos decimales y ese valor promedio se
resta por separado, de cada una de las mediciones hechas. Todas las diferencias obtenidas se suman y
luego se dividen entre las mediciones realizadas. El resultado final de la medida es: El promedio ± el valor
de la incertidumbre.

II. OBJETIVOS
El alumno:
 Realizará mediciones indirectas de magnitudes físicas fundamentales.
 Aprenderá a que cualquier medición de una magnitud no carece de error.
 Incrementará la habilidad de tomar en consideración todos los factores que influyen en mayor o
menor grado en el experimento.

III. FUNDAMENTACIÓN TEÓRICA

ERROR EXPERIMENTAL
Generalmente se piensa que las ciencias como la física son exactas. Sin embargo, esto no es
cierto, pues los resultados que se obtienen en las mediciones en estas ciencias contienen errores. La
naturaleza de estos errores es muy variada, así como sus valores, pero su completa eliminación es
prácticamente imposible. Ya que los errores en la experimentación no se pueden evitar, hay que aprender
a convivir con ellos, y controlar y estimar su valor de acuerdo a las necesidades experimentales.
El error experimental es inherente al proceso de medición, su valor solamente se puede estimar.
Dicho error está definido como la diferencia entre el valor verdadero y el valor medido de la magnitud.
En esta definición se habla de un “valor verdadero” de la cantidad que se mide, pero, ¿realmente
existe un valor verdadero? La respuesta es no. Por ejemplo, en la medición del ancho de esta hoja no es
posible obtener un valor verdadero, ya que existen una serie de factores que impiden lograr esto. De éstos
cabe destacar: el que los bordes de la hoja no sean paralelos, que su longitud cambie con las variaciones
de temperatura, que la regla no esté bien calibrada, que los átomos límites de ambos bordes de la hoja no
estén en reposo con respecto a los de la regla utilizada, etc. Como consecuencia de lo anterior lo único que
se puede hacer es dar un valor “estimado” de dicha longitud.
Para muchos ingenieros e investigadores es frecuente tomar como punto de partida la hipótesis
de que existe un “valor verdadero” de la cantidad que va a medir, y que el proceso de medición tiene por
objeto determinar ese “valor verdadero” tan aproximadamente como sea posible.
Para establecer este valor se recurre a observaciones realizadas con instrumentos de medición
usando métodos específicos; instrumentos y métodos que no están exentos de limitaciones. Aún más, las
propias observaciones, dependientes de la habilidad y pericia, arrojarán resultados asimismo imperfectos.
Es importante en ingeniería establecer en toda medición las cotas dentro de las cuales se confía
en que esté contenido el resultado de medición de la magnitud cuyo valor se busca.
Gráficamente, se muestra en la figura 1 el resultado de una medición un intervalo 𝑋 − ∆𝑋 ≤ 𝑋 ≥
𝑋 + ∆𝑋, donde esté centrado el valor de la medición de la magnitud 𝑋, y rodeado por márgenes
establecidos bajo ciertas reglas lo más generales posibles.

Figura 1.1 Intervalo asociado al resultado de una medición.

Se nota que en vez de dar un único número, se define un intervalo. El semi-ancho del intervalo
(∆X) se denomina la incertidumbre de la medición. La necesidad de indicar un rango de valores como
resultado de una medición, en vez de un único valor, está asociada con la natural imposición de las
limitaciones que instrumentos, métodos de medición y observador introducen en el proceso de medición.
Por consiguiente, es necesario establecer un margen de aceptación del resultado de medición y
para ello se introduce el concepto de incertidumbre. Tradicionalmente, el concepto de incertidumbre de una
medición está asociado con el de error de medición. El concepto de error de medición tiene que ver, con
algo inherente a todo proceso de medición.
Por ejemplo, cuando se usa un termómetro para medir una temperatura, parte del calor del objeto
fluye al termómetro (o viceversa) de modo que el resultado de la medición es un valor modificado del original
debido a la inevitable interacción que se debe realizar. Es claro que esta interacción podrá o no ser
significativa. Si se está midiendo la temperatura de un metro cúbico de agua, la cantidad de calor transferida
al termómetro puede no ser significativa, pero sí lo será seguramente si el volumen en cuestión es de una
pequeña fracción del mililitro. Por otro lado, aún con instrumentos tan sofisticados y elaborados como esté
permitido usar, es posible que el objeto mismo a medir (magnitud física) no esté definido con infinita
precisión. Imagine que se desea medir el largo de una mesa; es posible que al usar instrumentos cada vez
más precisos empezando a notar las irregularidades típicas del corte, o al ir aún más allá, finalmente se
detectará la naturaleza atómica o molecular del material que la constituye y es claro que en ese punto la
longitud dejará de estar bien definida. En la práctica, es posible que mucho antes de estos casos límites, la
falta de paralelismo en sus bordes haga que el concepto de la “longitud de la mesa” comience a hacerse
cada vez menos definido.
Este tipo de limitación se denomina incertidumbre intrínseca o falta de definición de la magnitud
en cuestión. Otro ejemplo sería el caso en que se cuenta la cantidad de partículas emitidas por una fuente
radioactiva en 5 segundos; sucesivas mediciones arrojarán diversos resultados (similares, pero en general
distintos). En este caso, de nuevo, se está frente a una manifestación de una incertidumbre intrínseca
asociada a esta magnitud, el número de partículas emitidas en 5 segundos, más que a la limitación de los
instrumentos empleados o al observador.
Otras fuentes de errores son las faltas de precisión y exactitud de los instrumentos. La precisión
de un instrumento (o un método de medición) está asociada a la sensibilidad o menor variación de la
magnitud que se pueda detectar con dicho instrumento. La mínima cantidad que puede medir directamente
un instrumento se denomina su apreciación nominal. De esta manera se dice que un tornillo micrométrico
(con una apreciación nominal de 10 µm) es más preciso que una regla graduada en milímetros, o que un
cronómetro es más preciso que un reloj común, etc. Por otro lado la exactitud de un instrumento (o método
de medición) está asociado a la calidad de la calibración del mismo. Por ejemplo imagínese que el
cronómetro que usa es capaz de determinar la centésima de segundo pero adelanta dos minutos por hora,
mientras que el reloj común no lo hace. En este caso se dice que el cronómetro es todavía más preciso
que el reloj común pero menos exacto. La exactitud es una medida de la calidad de la calibración de
nuestro instrumento respecto de patrones de medida aceptados internacionalmente. En general los
instrumentos vienen calibrados, pero dentro de ciertos límites. Es deseable que la calibración de un
instrumento sea tan buena como la apreciación del mismo. La figura 1.2 ilustra de modo esquemático estos
dos conceptos.
Figura 1.2 Ilustración esquemática los conceptos de precisión y exactitud.

CLASIFICACION DE ERRORES
En general, una medición tiene imperfecciones que dan origen a error en el resultado de la
medición. Tradicionalmente, se considera que un error tiene dos componentes llamadas componente
aleatoria y componente sistemática. Por lo que para el análisis de estas componentes los científicos los
han clasificado en dos amplias categorías:
1. Errores sistemáticos
2. Errores aleatorios

Los errores sistemáticos son los que en un principio se pueden evitar, corregir o compensar.
Estos alteran la medida por no tomar en cuenta alguna circunstancia que afecta al resultado siempre igual,
dando lugar a un alejamiento hacia un sentido del valor verdadero. Se les llama sistemáticos porque dan
efectos consistentes, pues cuando están presentes se obtienen valores que son más altos o más bajos que
el valor verdadero. Los errores sistemáticos se pueden originar por:
a. Defectos o falta de calibración de los instrumentos de medición.
b. El estado del medio ambiente en que se realizan los experimentos.
c. Malos hábitos y forma peculiar de realizar las observaciones por parte del experimentador.
d. La limitada precisión de las constantes universales de las ecuaciones que se usan en el diseño y
calibración de los instrumentos.

No obstante, si se conoce la fuente de error sistemático se puede considerar su influencia en la


magnitud que se mide, y en una serie de casos se puede excluir total o parcialmente, bien sea eliminando
la fuente que lo provoca, o introduciendo la corrección que tiene en cuenta aproximadamente su influencia.
Es conveniente señalar que la eliminación de los errores sistemáticos en los resultados experimentales se
logra en forma más eficiente si se toma en cuenta lo siguiente:
1. El experimentador debe esperar y descubrir la existencia de errores sistemáticos.
2. Una vez detectado el error se estimará su influencia en el resultado.
3. Valorará la importancia del error en función de la exactitud total que se desea y el costo y dificultad
de las posibles alternativas para evitarlo.
4. Finalmente se estudian los medios para eliminar o disminuir el error, lo cual se puede lograr
sustituyendo el equipo defectuoso, controlando las condiciones del experimento, o incluso
cambiando totalmente el método de medida.

La detección de los errores sistemáticos es de gran importancia debido a que la presencia


inadvertida de este tipo de errores puede conducir a un resultado aparentemente digno de confianza. Un
ejemplo de esto lo proporcionó el experimento de la gota de aceite realizado por Millikan para medir la carga
elemental del electrón “e”. En este experimento es necesario saber la viscosidad del aire. El valor utilizado
por Millikan fue demasiado bajo y como resultado el valor que obtuvo para “e” fue:
𝑒 = (1.591 ± 0.002) 𝑥 10−19 𝐶

que no corresponde al valor actual de “e”, el cual es igual a:

𝑒 = (1.602 ± 0.002) 𝑥 10−19 𝐶

Los errores aleatorios por lo general se deben a la suma de gran número de perturbaciones individuales
y fluctuantes que se combinan para dar lugar a que la repetición de una misma medición de en cada ocasión
un valor distinto. Estos errores siempre están presentes en las mediciones y en ausencia de errores
sistemáticos son causa de que las lecturas sucesivas se dispersen alrededor del valor verdadero de la
magnitud medida. Por ejemplo, al medir varias veces el periodo de un péndulo con la ayuda de un
cronómetro se obtienen resultados ligeramente diferentes debido a la presencia de errores aleatorios. Estos
errores pueden ser originados por el observador al leer la escala, por las pequeñas irregularidades del
movimiento del péndulo, etc. Si no hay errores sistemáticos presentes, algunos resultados serán mayores
y otros menores que el valor verdadero.
En general los errores aleatorios no se pueden eliminar, pero si estimar. Aunque no se puede
determinar el valor del error aleatorio, producto de las fluctuaciones personales, de las alteraciones
aleatorias del medio ambiente, etc. Si es posible estimular su valor mediante métodos estadísticos.
Otra manera de clasificar los errores es según su origen de la siguiente manera:

1. Errores introducidos por el instrumento:


a. Error de apreciación, 𝜎𝑎𝑝 : si el instrumento está correctamente calibrado la incertidumbre
que se tendrá al realizar una medición estará asociada a la mínima división de su escala o la
mínima división que se puede resolver con algún método de medición (apreciación). Nótese
que no se dice que la incertidumbre de apreciación es la mínima división del instrumento, sino
la mínima división que es discernible por el observador. La mínima cantidad que puede
medirse con un dado instrumento se denomina apreciación nominal.
b. Error de exactitud, 𝜎𝑒𝑥𝑎𝑐 : representa la incertidumbre (absoluta) con la que el instrumento en
cuestión ha sido calibrado.

2. La interacción del método de medición con el objeto a medir. Esta fuente de incertidumbre se
representa por 𝜎𝑖𝑛𝑡 . Su determinación depende de la medición que se realiza y su valor se estima de
un análisis cuidadoso del método usado.

3. Falta de definición en el objeto sujeto a medición: como se dijo antes, las magnitudes a medir no
están definidas con infinita precisión. Con 𝜎𝑑𝑒𝑓 se designa la incertidumbre asociada con la falta de
definición del objeto a medir o su incertidumbre intrínseca.

En general, en un dado experimento, todas estas fuentes de incertidumbres estarán presentes, de


modo que resulta útil definir la incertidumbre de medición nominal 𝜎𝑛𝑜𝑚 , como:
2 2 2 2 2
𝜎𝑛𝑜𝑚 = 𝜎𝑎𝑝 + 𝜎𝑒𝑥𝑎𝑐 + 𝜎𝑖𝑛𝑡 + 𝜎𝑑𝑒𝑓

Cuando se desea combinar los errores sistemáticos con los estadísticos, la prescripción usual es
sumar los errores absolutos en cuadratura, es decir sumar los cuadrados de los errores y tomar la raíz
cuadrada de este resultado, como lo indica la siguiente ecuación:
1
 𝑍 = (𝜎𝑒𝑠𝑡
2 2 )2
+ 𝜎𝑛𝑜𝑚 2
= (𝜎𝑒𝑠𝑡 2
+ 𝜎𝑎𝑝 2
+ 𝜎𝑒𝑥𝑎𝑐 2
+ 𝜎𝑖𝑛𝑡 2
+ 𝜎𝑑𝑒𝑓 )1/2

donde se está midiendo una magnitud 𝑍, el error final de 𝑍 es ∆𝑍.


REGRESIÓN LINEAL
Las posibles relaciones entre dos variables se pueden estudiar con gráficas en un sistema de
coordenadas cartesianas colocando en el eje horizontal la variable independiente y en el vertical la variable
dependiente.
La línea que se traza intentando que se adapte lo más posible a los puntos de la nube formada,
de modo que por encima de ella quede aproximadamente, el mismo número de puntos que por debajo, y a
distancias similares. La recta de regresión nos da idea de la relación existente entre las dos variables
representadas, siendo dicha relación mayor cuanto más próximos están los puntos.

LEY DE OHM
La ley de Ohm establece que la intensidad eléctrica que circula entre dos puntos de un circuito
eléctrico es directamente proporcional a la tensión eléctrica entre dichos puntos, existiendo una constante
de proporcionalidad entre estas dos magnitudes. Dicha constante de proporcionalidad es la conductancia
eléctrica, que es inversa a la resistencia eléctrica. La ecuación matemática que describe esta relación es:
𝑉
𝐼=
𝑅
donde, I es la corriente que pasa a través del objeto en amperios, V es la diferencia de potencial de las
terminales del objeto en voltios, y R es la resistencia en ohmios (Ω).
Esta ley tiene el nombre del físico alemán George Ohm, que en un tratado publicado en 1827,
halló valores de tensión y corriente que pasaba a través de unos circuitos eléctricos simples que contenían
una gran cantidad de cables. Él presentó una ecuación un poco más compleja que la mencionada
anteriormente para explicar sus resultados experimentales. La ecuación de arriba es la forma moderna de
la ley de Ohm.
Esta ley se cumple para circuitos y tramos de circuitos pasivos que, o bien no tienen cargas
inductivas ni capacitivas (únicamente tiene cargas resistivas), o bien han alcanzado un régimen permanente
(véase también «Circuito RLC» y «Régimen transitorio (electrónica)»). También debe tenerse en cuenta
que el valor de la resistencia de un conductor puede ser influido por la temperatura.
IV. MATERIAL Y EQUIPO

Mediciones de corriente y voltaje


 2 Multímetros digitales
 3 Resistores de 100, 150 y 220 , 2 W
 1 Tablero de conexiones eléctricas
 1 Fuente de voltaje de 0-40 V AC, 3 A max.
 2 Pares de cables banana-banana

V. REGLAS DE SEGURIDAD

 Colocar el material en lugar seguro, alejado de la orilla de la mesa.


 Antes de encender una fuente de voltaje preguntar al profesor si el circuito eléctrico está
correctamente armado.

VI. PROCEDIMIENTO Y MONTAJE EXPERIMENTAL

Mediciones de corriente y voltaje


1. Armar el sistema como se muestra en la
figura.
2. Arma las conexiones de la siguiente forma:
3. Enciende la fuente de voltaje.
4. Realiza mediciones de corriente y voltaje con
los multímetros para 10 valores de voltaje
dados por la fuente, en el rango de 0 - 10 V.
5. Repite el paso anterior para cada una de las
resistencias.
6. Realizar una cantidad de mediciones tal que permita construir la dependencia V = (I).

Figura 1. Montaje del sistema para el experimento.

1. Calcular la resistencia y su error mediante la ley de Ohm (V = I R).


2. Graficar voltaje contra corriente (V vs I) y mediante regresión lineal calcula la pendiente y su error.
De acuerdo con ley de Ohm, ésta será el valor de la resistencia.
3. Comparar los valores de la resistencia.

VII. PREGUNTAS

1. ¿Cuáles son los factores que intervienen en la determinación de los errores de las mediciones
para el experimento?

VIII. BIBLIOGRAFIA

 Gutiérrez Aranzeta (2005), “Introducción a la metodología experimental”, 2da. Edición, Editorial:


Limusa.
 Halliday, Resnick (2007), “Física volumen 2”. 5ta edición. Editorial: Patria Cultural.
 Sears, Zemansky, Young, Freedman. (2009), “Física universitaria con física moderna volumen 2”.
Decimosegunda edición. Editorial: Pearson.
 Serway, Jewet (2006), “Física para científicos e ingenieros”. 6ta edición. Editorial: Thompson

Anda mungkin juga menyukai