Logo Studenta

ERRORES EN LAS MEDICIONES RESUMEN - Magaly Muñoz

¡Estudia con miles de materiales!

Vista previa del material en texto

ERRORES EN LAS MEDICIONES – RESUMEN 
 1 
DEFINICIONES PRELIMINARES 
Una magnitud física es un atributo de un cuerpo, de un 
fenómeno o de una sustancia, susceptible de ser medido. 
Ejemplos de magnitudes son la longitud, la masa, la carga 
eléctrica, etc. 
MEDIR es un proceso mediante el cual se busca asignar un 
valor cuantitativo a una magnitud física determinada, 
comparando el objeto a medir con otro tomado como patrón 
universal que se define como unidad. La medición es un 
proceso en el que intervienen: la magnitud específica del 
objeto que queremos medir, un método de medición o 
sistema de comparación, un instrumento de medición (que 
incluye al observador) y las unidades de medición. 
Por ejemplo, si queremos medir el largo de una varilla, el 
instrumento de medición será una regla, si elegimos el 
Sistema Internacional de Unidades (SI), la unidad será el 
metro y la regla a usar deberá ser calibrada en esa unidad o 
en submúltiplos de ella. El método de medición consistirá en 
determinar cuántas veces la unidad y fracciones de ella están 
contenidas en la varilla. 
El resultado de toda medición tiene siempre algún grado de 
error o incertidumbre (o indeterminación, o incerteza), por lo 
cual, el objetivo de la medición no es encontrar el valor 
exacto de la magnitud en cuestión, sino encontrar el mejor 
intervalo dentro del cual es probable que se encuentre el 
valor de la misma. 
Coloquialmente, es habitual emplear del término error como 
análogo o equivalente a equivocación, sin embargo, en 
ciencias e ingeniería tiene un significado diferente; el 
concepto de error está más bien asociado al concepto de 
incertidumbre en la determinación del resultado de una 
medición. 
Los errores o incertidumbres de las mediciones provienen de 
limitaciones impuestas por: 
• la precisión y exactitud de los instrumentos utilizados 
• la definición de la magnitud y del objeto a medir 
• la interacción del observador que realiza la medición y 
del método de medición con el objeto a medir 
Todas estas limitaciones llevan a que no sea posible obtener 
con total certeza el valor de la magnitud medida, sino que 
sólo se puede establecer un rango de valores donde es 
razonable esperar que esté contenido el mejor valor de dicha 
magnitud. El resultado final de un proceso de medición es, 
entonces, un número asociado al valor de la magnitud, su 
unidad correspondiente y un intervalo de incertidumbre. 
PRECISIÓN: La precisión de un instrumento o un método de 
medición está asociada a la menor variación de la magnitud 
que se pueda detectar con dicho instrumento o método. Todo 
instrumento tiene una precisión finita, por lo que, para un 
instrumento dado, no se podrán detectar variaciones de la 
magnitud medida inferiores a un determinado valor mínimo. 
Esta mínima cantidad se denomina apreciación nominal del 
instrumento. La precisión va a determinar el número de cifras 
significativas que se pueden conocer del valor de la magnitud 
medida. Ejemplo: Con una regla graduada en milímetros, no 
podemos detectar variaciones menores que una fracción del 
milímetro. Así, decimos que un tornillo micrométrico (con 
una apreciación nominal de 10 µm) es más preciso que una 
regla graduada en milímetros; o que un cronómetro es más 
preciso que un reloj común, etc. 
EXACTITUD: La exactitud de un instrumento o método de 
medición está asociada a la calidad de la calibración del 
mismo respecto de patrones de medida aceptados 
internacionalmente. En general, los instrumentos vienen 
calibrados dentro de ciertos límites. Es deseable que la 
calibración de un instrumento sea tan buena como la 
apreciación del mismo. Imaginemos un cronómetro que es 
capaz de determinar la centésima de segundo pero adelanta 
dos minutos por hora, mientras que un reloj de pulsera 
común no lo hace. En este caso el reloj común es más exacto 
que el cronómetro, aún cuando sea menos preciso. Una 
medición bien hecha ha de ser más exacta que la precisión 
del instrumento o método de medición. 
INCERTIDUMBRE INTRÍNSECA O FALTA DE DEFINICIÓN: 
Las magnitudes a medir no están definidas con infinita 
precisión. Si se quisiera medir una longitud con una 
apreciación menor al tamaño atómico, los límites del objeto 
dejarían de estar bien definidos. Imaginemos que se quiera 
medir el largo de una mesa. Es posible que al usar 
instrumentos cada vez más precisos se empiecen a notar las 
irregularidades típicas del corte de los bordes o, al ir aún más 
allá, finalmente se detecte la naturaleza atómica o molecular 
del material que la constituye. En ese punto la longitud 
dejará de estar bien definida. En la práctica, es posible que 
mucho antes de estos casos límites, la falta de paralelismo 
en sus bordes haga que el concepto de la “longitud de la 
mesa” comience a hacerse cada vez menos definido. Una 
limitación de este tipo es una incertidumbre intrínseca o 
falta de definición de la magnitud en cuestión. Cuando se 
realiza una medición, no se puede pretender conocer el valor 
exacto o verdadero de la magnitud a medir, en general, no 
existe dicho valor. Esto último puede parecer extraño si se 
piensa en términos de la física clásica (mecánica newtoniana 
o electromagnetismo), pero en cambio resulta perfectamente 
lógico en la física moderna (mecánica cuántica) donde las 
magnitudes como posición, carga, etc, no tienen un valor 
determinado y lo que se mide es algo probabilístico. 
INTERACCIÓN CON EL OBJETO A MEDIR: Además de las 
limitaciones mencionadas, otra fuente de incertidumbre en el 
resultado de una medición es la interacción con el objeto a 
medir durante el proceso de medición. Por ejemplo, cuando 
usamos un termómetro para medir una temperatura, se 
transfiere calor del objeto al termómetro y viceversa, de 
modo que, debido a la inevitable interacción entre el 
termómetro y el objeto, el resultado de la medición es un 
valor modificado del original. Si se mide la temperatura de 
un metro cúbico de agua, el calor transferido no debe afectar 
significativamente el resultado de la medición, pero si el 
volumen de agua en cuestión fuera de un mililitro, entonces 
la interacción sí podría influir significativamente en el 
resultado de la medición. 
En general, todas estas fuentes de error estarán presentes en 
cualquier medición. La incertidumbre resultante de la 
combinación de éstas se conoce como error nominal de la 
medición. 
Los errores pueden clasificarse según su origen: 
• Error de apreciación: Es el asociado a la mínima 
división que se puede resolver con el método de 
medición. Este error no es precisamente la mínima 
división del instrumento, sino la mínima división que es 
discernible por el observador. El error de apreciación 
puede ser mayor o menor que la apreciación nominal, 
dependiendo de la habilidad (o falta de ella) del 
observador. Así, es posible que un observador entrenado 
pueda apreciar con una regla común fracciones del 
milímetro mientras que otro observador, con la misma 
regla pero con dificultades de visión sólo pueda apreciar 
2 mm. 
ERRORES EN LAS MEDICIONES – RESUMEN 
 2 
• Error de exactitud: Está asociado a la calibración del 
instrumento. En general se suministra como información 
del instrumento y habitualmente se expresa como un 
error porcentual del valor medido. 
• Error de interacción: Proviene de la interacción del 
método de medición con el objeto a medir. Su 
determinación depende de la medición que se realiza y 
su valor se estima de un análisis cuidadoso del método 
usado. 
• Error de definición: Es la incertidumbre intrínseca, 
asociada con la falta de definición del objeto y la 
magnitud a medir. 
Los errores también se clasifican según el carácter de los 
mismos: 
• ERRORES GROSEROS O ILEGÍTIMOS: Son los errores 
asociados al concepto convencional de equivocación. No 
se les aplica la teoría estadística de errores y el modo de 
evitarlo consiste en una evaluación cuidadosa de los 
procedimientos realizados en la medición. 
Supongamos que deseamos calcular el volumen deun 
objeto esférico y para ello determinamos su diámetro. Si 
al introducir el valor del diámetro en la fórmula, nos 
equivocamos en el número introducido, o lo hacemos 
usando unidades incorrectas, o bien usamos una 
expresión equivocada del volumen, claramente 
habremos cometido un error de este tipo. Otros 
ejemplos: hacer la lectura en una escala equivocada, 
desplazar inadvertidamente el cero de un instrumento, 
etc. Un ejemplo famoso fue el que se cometió en el Mars 
Climate Explorer a fines de 1999, al pasar de pulgadas a 
centímetros se cometió un error que costó el fracaso de 
dicha misión a Marte. 
• ERRORES SISTEMÁTICOS: Son aquellos que se 
originan por las imperfecciones de los instrumentos y 
métodos de medición, la percepción sensorial del 
observador, la inexactitud de las teorías que sirven de 
fundamento a la medición, la interacción del propio acto 
de medición con el objeto a medir, o por la acción 
permanente de una causa exterior. El efecto se 
manifiesta en un mismo sentido, es decir, siempre por 
exceso o por defecto. No se puede aplicar ninguna teoría 
general para evaluarlos; para detectarlos y aplicar las 
correcciones que los eliminen es necesario analizar cada 
caso particular, comparando las mediciones con otros 
métodos alternativos y realizando un análisis crítico y 
cuidadoso del procedimiento empleado. 
Ejemplos: un reloj que atrasa o adelanta, una regla 
dilatada, el error de paralaje, etc. En el caso de una 
balanza bien calibrada que se usa para conocer el peso 
de las personas en un lugar público; como es usual que 
las personas (en público) se pesen vestidas, los valores 
registrados con estas balanzas tendrán un error 
sistemático por el peso de la vestimenta. 
En una medición exacta, los errores sistemáticos son 
muy pequeños. 
• ERRORES CASUALES, ALEATORIOS O 
ESTADÍSTICOS: Son aquellos que se producen al azar y 
no se pueden evitar. En general son debidos a causas 
múltiples y fortuitas, no controlables, como pequeñas 
variaciones en las condiciones del ambiente 
(temperatura, presión, humedad, etc), el observador 
(variación de la atención, fatiga, etc), el instrumento de 
medición (tensiones accidentales, "ruido", etc), 
aproximación en las observaciones, etc. Estos errores 
pueden cometerse con igual probabilidad por defecto 
como por exceso, por lo cual es posible reducirlos 
considerablemente midiendo varias veces bajo las 
mismas condiciones experimentales y promediando el 
resultado. A este tipo de errores es al que la teoría 
estadística se refiere comúnmente como "errores de 
medición". 
En una medición precisa, los errores aleatorios son muy 
pequeños. 
Medir bien significa eliminar del proceso los errores 
ilegítimos y minimizar los errores sistemáticos y los 
aleatorios. 
ASIGNACIÓN DE ERRORES 
Una manera de estimar los errores es asignando intervalos de 
incertidumbre a las mediciones. 
• INCERTIDUMBRE ABSOLUTA: Ésta indica el tamaño 
del intervalo dentro del cual puede estar, con cierto 
grado de confianza, el valor real de la magnitud medida. 
Tiene las mismas dimensiones que la magnitud medida 
y es conveniente expresarla con las mismas unidades de 
ésta. 
Si X es la magnitud en estudio, X es el mejor valor 
obtenido y (X)absε (o X∆ ) su incertidumbre absoluta, 
el resultado se expresa adecuadamente como: 
XXX ∆±= 
Esto significa que, según nuestra medición, con un 
grado de confiabilidad razonable, el valor de X debe 
estar comprendido entre XX ∆− y XX ∆+ . 
La probabilidad (p0) de que el valor de X esté contenido 
en el intervalo X)X ,X X( ∆+∆− es denominada 
coeficiente de confianza. 
X)X XX X ∆+<<∆−(P = p0 
• INCERTIDUMBRE RELATIVA: Ésta indica el grado de 
incertidumbre que se tiene por cada unidad de la 
magnitud medida, es decir, representa el cociente entre 
la incertidumbre absoluta y el valor de la magnitud. 
X/X(X)rel ∆=ε 
• INCERTIDUMBRE PORCENTUAL: Ésta indica el 
porcentaje de incertidumbre respecto al valor de la 
magnitud medida, es decir, la incertidumbre relativa 
multiplicada por cien. 
X/X(X)(X) rel% ∆⋅=⋅= 100100 εε 
• TOLERANCIA: Es el valor que asigna el fabricante de un 
aparato para cuantificar el error asociado a las 
mediciones hechas con el mismo. Usualmente se 
muestra en el propio aparato o se especifica en el 
manual. Si un aparato no trae esta información se le 
asignará como error la mitad de la mínima escala. 
TIPOS DE MEDICIÓN 
Para poder asignar un número a los intervalos de 
incertidumbre es necesario definir los tipos de medición que 
se pueden llevar a cabo: 
• MEDICIONES DIRECTAS: Son aquellas que se realizan 
comparando directamente el patrón de medida con el 
objeto a medir. Se dividen a su vez en: 
ERRORES EN LAS MEDICIONES – RESUMEN 
 3 
MEDICIONES DIRECTAS REPRODUCIBLES: Son 
aquellas mediciones directas que se pueden repetir 
tantas veces como sea necesario, bajo las mismas 
circunstancias experimentales. 
MEDICIONES DIRECTAS NO REPRODUCIBLES: Son 
aquellas mediciones directas que NO se pueden repetir 
tantas veces como sea necesario, bajo las mismas 
condiciones experimentales. 
• MEDICIONES INDIRECTAS: Son las que presumen el 
conocimiento de una o más mediciones directas y se 
obtienen efectuando un cálculo matemático. 
ESTIMADORES ESTADÍSTICOS 
En mediciones directas, el valor más probable de la 
magnitud medida está dado por el promedio o media de los 
valores medidos. 
El promedio de N observaciones X1, X2, …XN se define como 
la media aritmética de los N valores y se calcula mediante la 
expresión: 
N
X
X
∑
=
i
 
El error de cada observación respecto al valor medio o error 
aparente de cada observación se define como la diferencia 
entre el valor observado y el valor promedio de las N 
observaciones realizadas. 
XX −= iiε 
El error cuadrático medio o dispersión de un conjunto de N 
observaciones X1, X2, …XN se define mediante la expresión: 
N
cm
∑==
2
iεσε 
La varianza es el cuadrado de la dispersión. 
N
var
∑==
2
i2 εσ 
La desviación estándar de un conjunto de N observaciones 
se define mediante la expresión: 
1N
s
−
∑=
2
iε
 
La desviación estándar se puede calcular también mediante 
una expresión más sencilla: 
( )
1N
XN·X
s
−
−
= ∑
22
i
 
La incertidumbre absoluta (∆X) (o error absoluto o incerteza 
absoluta) en la medición de una magnitud X a partir de N 
observaciones X1, X2, …XN medidas de manera directa está 
dada por el mayor valor entre el error del instrumento (o 
método) y el valor de N3·s . 
Si N3·s > instrε , entonces N3·sX =∆ , si no, 
=∆X instrε . 
El error del instrumento (o método) depende de la precisión y 
exactitud del mismo, es decir, de los correspondientes errores 
de apreciación y exactitud. En mediciones sencillas y para 
fines prácticos, se puede considerar que: 
exacaprinstr εεε += 
En mediciones directas no reproducibles, el valor más 
probable de la medición realizada es 2)Ls(LiX += , donde 
Li
 
es el límite inferior y Ls es el límite superior de las 
mediciones tomadas para la cantidad X; la incertidumbre 
absoluta es 2Li)(LsX −=∆ 
En mediciones indirectas, el valor más probable de la 
medición de una magnitud ...) z, y, (x,fX = está dado por 
...) ,z ,y ,x(ff = , es decir, la función f evaluada en los 
promedios (o valores más probables) de las variables; y la 
incertidumbre absoluta f∆ se calcula utilizando el método 
de la diferencial total descrito a continuación. 
Método de la diferencial total: Sea la función 
...) z, y, (x,ff = , que depende de las variables z,... y, x, 
etc., que son independientes entre sí, es decir, que las 
variables no están correlacionadas, donde x está medida 
como xxx ∆±= , y como yyy Δ±= , z como 
zzz ∆±= , etc. 
Se puede demostrar que la incertidumbre absoluta está dada 
por la expresión: 
( ) ( ) ( ) ...z
z
f
y
y
f
x
x
f
f
2
2
2
2
2
2
+∆
∂
∂
+∆
∂
∂
+∆
∂
∂
=∆ 

















 
evaluada en los promedios y en las incertidumbres 
correspondientes. 
Una expresión más sencilla quepermite estimar 
aproximadamente la incertidumbre absoluta, es: 
...z
z
f
y
y
f
x
x
f
f +∆
∂
∂
+∆
∂
∂
+∆
∂
∂
=∆ 
EXPRESIÓN DE LOS RESULTADOS 
El resultado de la medición de una magnitud X se debe 
expresar como: 
XXX ∆±= 
Lo que significa que el valor de la magnitud X debe estar 
comprendido entre los valores XX ∆− y XX ∆+ 
Para expresar los resultados XΔ se debe redondear por 
exceso hasta quedar con una cifra significativa (en algunos 
casos se pueden admitir dos) y X se redondeará al mismo 
orden que XΔ . 
CASOS MÁS COMUNES DE MEDICIONES INDIRECTAS 
SUMA: 
|)y||x(|)yx(yxy)f(x, ∆+∆±+=+= ; en las 
mismas unidades que x y y. 
|y||x|y)(xΔf(f)εabs ∆+∆=+∆== 
ERRORES EN LAS MEDICIONES – RESUMEN 
 4 
RESTA: 
|)y||x(|)yx(yxy)f(x, ∆+∆±−=−= ; en las 
mismas unidades que x y y. 
|y||x|y)(xΔf ∆+∆=−∆= 
|y||x|y)(xΔf(f)εabs ∆+∆=−∆== 
MULTIPLICACIÓN POR UN NÚMERO REAL: 
xaxaxaf(x) ∆⋅±⋅=⋅= ; en las unidades de a por las 
unidades de x. 
xax)(af(f)εabs ∆⋅=⋅∆=∆= 
MULTIPLICACIÓN: 
|)xy||yx(|)yx(yx y) f(x, ∆⋅+∆⋅±⋅=⋅= ; en las 
unidades de x por las unidades de y. 
|xy||yx|y)(xf(f)εabs ∆⋅+∆⋅=⋅∆=∆= 
y
|y|
x
|x|
)yx(
y)(x
f
f
(f)εrel
∆
+
∆
=
⋅
⋅∆
=
∆
= 
DIVISIÓN: 







 ∆
⋅+
∆
±==
2y
y
x
y
x
y
x
y
x
 y) f(x, ; en las unidades 
de x entre las unidades de y. 
2abs y
y
x
y
x
y
x
f(f)ε
∆
⋅+
∆
=





∆=∆= 
y
|y|
x
|x|
)y/x(
y)/(x
f
f
(f)εrel
∆
+
∆
=
∆
=
∆
= 
POTENCIA: 
|)xxn(|xx ...x xxx f(x) 1-nnn ∆⋅⋅±=⋅⋅⋅== ; en 
las unidades de x elevadas a la potencia n. 
|xxn|)x(f(f)ε 1-nnabs ∆⋅⋅=∆=∆= 
x
|x|
n
x
)(x
f
f
(f)ε
n
n
rel
∆
=
∆
=
∆
= 
OPERACIONES COMBINADAS: 
m
lk
z
.yx
az)y,f(x, ⋅= 
z
Δz
m
y
Δy
l
x
Δx
k
f
Δf
f
(f)ε
(f)ε absrel ⋅+⋅+⋅=== 
f
z
Δz
m
y
Δy
l
x
Δx
kf(f)ε(f)ε relabs ⋅







⋅+⋅+⋅=⋅= 
CIFRAS SIGNIFICATIVAS 
Cuando realizamos una medición con una regla graduada en 
milímetros, está claro que, si somos cuidadosos, podremos 
asegurar nuestro resultado hasta la cifra de los milímetros o, 
en el mejor de los casos, con una fracción del milímetro, 
pero no más. 
De este modo nuestro resultado podría ser: 
L = (86,2 ± 0,5) mm, o bien L = (86 ± 1) mm. 
En el primer caso decimos que nuestra medición tiene tres 
cifras significativas y en el segundo caso sólo dos. 
El número de cifras significativas es igual al número de 
dígitos contenidos en el resultado de la medición que están a 
la izquierda del primer dígito afectado por el error, 
incluyendo este dígito. El primer dígito, o sea el que está más 
a la izquierda, es el más significativo (8 en este caso) y el 
último (más a la derecha) el menos significativo, ya que es 
en el que tenemos “menos seguridad”. Nótese que carece de 
sentido incluir en el resultado de L más cifras que aquellas 
en donde tenemos incertidumbres (donde “cae” el error). 
Se les llama cifras significativas a la cantidad de todos los 
dígitos conocidos reportados en una medida, más el último 
dígito que es incierto (estimado). 
No es correcto expresar el resultado como 
L = (86.321 ± 1) mm, ya que si hay una incertidumbre del 
orden de 1 mm, no se puede asegurar el valor de las 
décimas, centésimas y milésimas del milímetro. Si el valor de 
L proviene de un promedio y el error es del orden del 
milímetro, se debe redondear el dígito donde primero cae el 
error. 
Es usual expresar las incertidumbres con una sola cifra 
significativa, y sólo en casos excepcionales y cuando existe 
fundamento para ello, se pueden usar más. 
También es usual considerar que la incertidumbre en un 
resultado de medición afecta a la última cifra si es que no se 
la indica explícitamente. Por ejemplo, si sólo se dispone de la 
información que una longitud es L = 86 mm, se puede 
suponer que la incertidumbre es del orden del milímetro y el 
resultado de L tiene dos cifras significativas. 
Una posible fuente de ambigüedad se presenta con el 
número de cifras significativas cuando se hace un cambio de 
unidades. Si en el último ejemplo deseamos expresar L en 
µm, el resultado sería L = (86000 ± 1000) µm. ¿Cuántas 
cifras significativas tenemos en este resultado? Claramente 
dos, igual que antes, ya que la última cifra significativa sigue 
siendo 6. Sin embargo, si no se indica explícitamente la 
incertidumbre de L, es difícil saber cuántas cifras 
significativas hay. Nótese que 86 mm no es lo mismo que 
86000 µm, ya que el primer resultado tiene sólo dos cifras 
significativas mientras el segundo tiene 5 (a propósito, los 
costos de los instrumentos para realizar estas dos clases de 
determinaciones serían muy diferentes). Para evitar estas 
ambigüedades se emplea la notación científica. Se puede 
escribir la siguiente igualdad: 
8,6 x 101 mm = 8,6 x 104 µm. Los números en ambos 
miembros de la igualdad tienen igual número de cifras 
significativas, siendo la única diferencia las unidades usadas. 
• Son significativos todos los dígitos distintos de cero. 
8723 tiene cuatro cifras significativas 
• Los ceros situados entre dos cifras significativas son 
significativos. 105 tiene tres cifras significativas 
• Los ceros a la izquierda de la primera cifra significativa 
no lo son. 0,005 tiene una cifra significativa 
• Para números mayores que 1, los ceros a la derecha de 
la coma son significativos. 8,00 tiene tres cifras 
significativas 
ERRORES EN LAS MEDICIONES – RESUMEN 
 5 
• Para números sin coma decimal, los ceros posteriores a 
la última cifra distinta de cero pueden o no considerarse 
significativos. Así, para el número 70 podríamos 
considerar una o dos cifras significativas. Esta 
ambigüedad se evita utilizando la notación científica. 
7 x 102 tiene una cifra significativa ; 7,0 x 102 tiene dos 
cifras significativas 
• Los números que resultan de contar o constantes 
definidas, tienen infinitas cifras significativas. Ejemplo: 
15 camisas, esa medida tiene infinitas cifras porque es 
un número exacto. 
• Los resultados experimentales se expresan con sólo una 
cifra dudosa, e indicando con ± la incertidumbre en la 
medida. 
• Las cifras significativas se cuentan de izquierda a 
derecha, a partir del primer dígito diferente de cero y 
hasta el dígito dudoso. 
• Al sumar o restar dos números decimales, el número de 
cifras decimales del resultado es igual al de la cantidad 
con el menor número de ellas. Un caso de especial 
interés es el de la resta; por ejemplo: 30,3475 –
 30,3472 = 0,0003. Cada una de las cantidades tiene 
seis cifras significativas y el resultado posee tan sólo 
una. Al restar se han perdido cifras significativas. Esto 
es importante tenerlo en cuenta cuando se trabaja con 
calculadoras o computadores en donde haya cifras que 
se sumen y se resten. Es conveniente realizar primero 
las sumas y luego las restas para perder el menor 
número de cifras significativas posible. 
• Al multiplicar o dividir dos números, el número de cifras 
significativas del resultado es igual al del factor con 
menos cifras. 
Ejemplos 
1. Se midió una longitud con un calibre, los resultados 
fueron: 
L = 161,35 mm y ∆L = 0,05 mm 
La longitud se reportará con DOS cifras significativas después 
del punto decimal: 
L = (161,35 ± 0.05) mm 
La longitud se reportará con un total de TRES cifras 
significativas. 
2. Se midió un intervalo de tiempo con un cronómetro, los 
resultados fueron: 
t = 5,125 s y ∆t = 0,2 s 
El tiempo se reportará con UNA cifra significativa después 
del punto decimal: 
t = (5,1 ± 0,2) s 
El tiempo se reportará con un total de DOS cifras 
significativas. 
3. Se midió un volumen, los resultados fueron: 
V = 72,15796 mm3 y ∆V = 0,074983 mm3 
El volumen se reportará con DOS cifras significativas después 
del punto decimal: 
V = (72,16 ± 0,08) mm3 
El volumen se reportará con un total de CUATRO cifras 
significativas. 
4. Se midió el área de un círculo, los resultados fueron: 
A = 20433,9784 cm2 y ∆A = 12,257 cm2 
El área se reportará con CERO cifras significativas después 
del puntodecimal: 
A = (20434 ± 13) cm2 
El área se reportará con un total de CINCO cifras 
significativas.

Continuar navegando