_________________________________________________________________________
INTRODUCCIÓN
La Física, como toda ciencia experimental, tiene como criterio de verdad la contrastación
de sus teorías con datos surgidos de mediciones. Así, se dice que una ley, una hipótesis o
un modelo representan adecuadamente la realidad (fenómeno físico) si las consecuencias
que de ella se derivan se corresponden con los datos experimentales.
En todo proceso de medición existen limitaciones dadas por los instrumentos usados, el
método de medición y/o el observador que realiza la medición. Estas limitaciones generan
una diferencia entre el valor real o verdadero de la magnitud y la cantidad obtenida para la
misma luego de medir. Dicha diferencia se debe a la incerteza o el error en la
determinación del resultado de una medición; esta es inevitable y propia del acto de medir.
Coloquialmente, es usual el empleo del término error como análogo o equivalente a
equivocación. En ciencia e ingeniería, el error está más bien asociado al concepto de
incerteza (también llamada inexactitud o incertidumbre) en la determinación del resultado
de una medición. Por ello se dice que se conoce el valor de una magnitud dada en la medida
en que se conocen sus errores. Con la indicación del error de medición se expresa, en forma
cuantitativa y lo más precisamente posible, las limitaciones introducidas en la
determinación de la magnitud medida.[1]
OBJETIVOS
Balanza digital
Regla
Pie de rey
Tornillo micrométrico
Cilindro metálico
Hoja de papel
Métodos
1. Medidas de longitud
1.1 Medir con una regla el largo y el ancho de la hoja de bloc. Escribir cada medida con el
número de cifras correspondientes y con el error instrumental de la regla.
BIBLIOGRAFIA
[1] González, P. J. D. E. Introducción a la Teoría de Errores de Medición. Tomado de la página
web file:///C:/Users/SONY/Downloads/TO1_Erroes_asoc_instr_medicion.pdf
[2] Cernuschi, F., & Greco, F. I. (1968). Teoría de errores de mediciones (No. 519.2 CER).