• No se han encontrado resultados

ANÁLISIS DE DATOS EXPERIMENTALES La medida y su error

N/A
N/A
Protected

Academic year: 2021

Share "ANÁLISIS DE DATOS EXPERIMENTALES La medida y su error"

Copied!
89
0
0

Texto completo

(1)
(2)
(3)

ANÁLISIS DE DATOS

EXPERIMENTALES

La medida y su error

Carlos F. González Fernández

Catedrático de Física Aplicada

(4)

Licencia Escogida

Atribución-NoComercial-SinDerivadas 3.0 Unported

Esta no es una Licencia de Cultura Libre.

Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons

Los ítems del repositorio están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.

(5)

PRÓLOGO

Este libro está dirigido a estudiantes universitarios de los primeros cursos de titulaciones de ciencias e ingenierías; pretende ser una breve guía que facilite al alumno el tratamiento adecuado de los datos experimentales que va a obtener en sus experiencias de laboratorio, de modo que sepa expresar los resultados de sus mediciones de manera comprensible y correcta.

El objetivo básico es que sea un manual que permita, de manera práctica y efectiva, distinguir las distintas causas de error, y expresar su influencia en los resultados de las mediciones mediante los criterios e índices de incertidumbre que conviene emplear, de acuerdo con las reglas y normas que habitualmente se utilizan en la comunidad científica y técnica.

El libro está organizado en cinco capítulos. Los tres primeros se refieren a la teoría de errores, tanto sistemáticos como accidentales, así como a la regresión y correlación; el tratamiento estadístico se ha reducido al mínimo indispensable para introducir los índices de error más utilizados, y su significación.

Los dos últimos capítulos, complementarios de los anteriores, son útiles a la hora de expresar los resultados. Contienen normas a seguir tanto en la representación gráficas de los resultados de las mediciones, como en la expresión de las unidades; se incluye también el Sistema Internacional de Unidades.

(6)
(7)

Índice analítico

PRÓLOGO III

Capítulo 1 ERRORES SISTEMÁTICOS 1

1.1 Causas de error 2

1.2 Medida directa 4

1.2.1- Error absoluto 4

1.2.2- Error relativo 6

1.2.3- Exactitud y precisión de las medidas 7 1.2.4- Precisión y sensibilidad de los instrumentos de medida 7 1.2.5- Forma correcta de expresar los resultados 11

1.3 Medida indirecta 14

1.3.1- Propagación lineal del error absoluto 14 1.3.2- Limitaciones en la aplicación del cálculo diferencial 15

1.3.3- Análisis de distintos problemas 17

1.3.4- Serie de medidas 22

Capítulo 2 ERRORES ACCIDENTALES 25

2.1 Población y muestra 26

2.2 Estadística descriptiva 27

2.2.1- Medidas directas. Distribuciones de frecuencias y estadísticos 27 2.2.2- Medidas indirectas. Propagación cuadrática de la varianza 32

2.2.3- Desviación típica de la media 34

2.3 Estadística inferencial 35

2.3.1- Distribuciones de probabilidad y parámetros 35

2.3.2- Estimación 37

(8)

Capítulo 3 REGRESIÓN Y CORRELACIÓN 53

3.1 Regresión lineal simple 54

3.1.1- Tipos de dependencias 54

3.1.2- Método de los mínimos cuadrados 55

3.2 Correlación 58

Capítulo 4 REPRESENTACIONES GRÁFICAS 63

Capítulo 5 SISTEMA INTERNACIONAL DE UNIDADES 71

5.1 Reglas de escritura 72

5.2 Unidades básicas 73

5.3 Unidades derivadas 74

5.3.1- Algunas unidades SI derivadas expresadas mediante unidades básicas 74 5.3.2- Unidades Sl derivadas que tienen nombres especiales 75 5.3.3- Algunas unidades SI derivadas que se expresan utilizando

nombres especiales 76

5.4 Unidades suplementarias 77

5.5 Múltiplos y submúltiplos decimales de las unidades SI 78

5.6 Unidades utilizadas pero no incluidas en el Sistema Internacional 78

5.7 Unidades CGS con nombres especiales 79

5.8 Otras unidades 80

(9)

Capítulo 1

ERRORES SISTEMÁTICOS

1.1 Causas de error 2 1.2 Medida directa 4 1.2.1- Error absoluto 4 1.2.2- Error relativo 6

1.2.3- Exactitud y precisión de las medidas 7 1.2.4- Precisión y sensibilidad de los instrumentos de medida 7 1.2.5- Forma correcta de expresar los resultados 11

1.3 Medida indirecta 14

1.3.1- Propagación lineal del error absoluto 14 1.3.2- Limitaciones en la aplicación del cálculo diferencial 15

1.3.3- Análisis de distintos problemas 17

(10)

1.1

CAUSAS DE ERROR

La experimentación, tanto en la ciencia como en la técnica, se basa en el proceso de toma de datos, que se obtienen mediante procedimientos e instrumentación de características diversas. Las medidas realizadas, que teóricamente tratan de determinar el valor verdadero de un cierto observable, están condicionadas por diversas circunstancias y limitaciones conocidas como causas de error, que imposibilitan la obtención del valor exacto. Es fundamental, por consiguiente, determinar el grado de influencia que dichas causas ejercen sobre el dato experimental.

Vamos a suponer que las medidas se hacen correctamente, es decir, no se cometen errores atribuibles a la mala práctica del experimentador, sea por:

errores de observación (como el error de paralaje, que se origina cuando se observa la aguja indicadora de un instrumento con una cierta inclinación, y no perpendicularmente a la misma; o demorarse en poner en marcha o parar un reloj),

errores de ajuste del aparato (como el error de cero, de modo que señala un valor no nulo antes de realizar la medida de alguna cantidad),

no considerar condiciones externas (medir, pongamos por caso, a temperaturas diferentes a las que fue calibrado el aparato sin hacer la corrección apropiada),

cometer errores que tengan su origen en la utilización de instrumentos defectuosos o mal calibrados (como relojes que atrasan o escalas erróneas), etc.

(11)

Trataremos, pues, de aquellos errores inevitables, errores que siempre se encuentran presentes en el proceso de medida. Sus causas pueden ser de dos tipos: sistemáticas o accidentales.

Causas sistemáticas son las que afectan a la medida siempre en la misma

cuantía. Eliminadas las mencionadas anteriormente, siempre existe como causa de incertidumbre la que determina el propio instrumento, es decir, el

error instrumental, que proviene del orden de magnitud de la medida que

es capaz de suministrar el instrumento utilizado. El error instrumental puede ser reducido -cambiando de aparato- pero no suprimido. La limitación del instrumento es, pues, la causa sistemática fundamental.

Causas accidentales son las que afectan a la medida de manera imprevisible,

tomando ésta valores diferentes aunque se repita en condiciones aparentemente idénticas. Dichas causas parecen influir en la medida al azar; de ahí que también se las denomine causas aleatorias. Entre ellas cabe destacar pequeñas fluctuaciones de temperatura, humedad, presión, etc., así como imperfecciones de nuestros sentidos o de los métodos experimentales utilizados. También pueden reflejar diferencias reales en los valores de una magnitud evaluada en un conjunto de elementos aparentemente iguales, como puede ser, por ejemplo, el caso de la medida del diámetro de un mismo tipo de arandelas manufacturadas por una determinada máquina. En muchos casos es difìcil determinar su origen, y su eliminación es prácticamente imposible. Las desviaciones que originan las causas accidentales en las medidas responden a distribuciones de probabilidad que pueden estudiarse por procedimientos estadísticos.

La determinación de las influencias que las causas de error ejercen sobre la medida exige algún modo de cuantificación; de ahí que se hable de varios tipos de error en las causas sistemáticas, y de varios tipos de índices, en las accidentales, con diferentes significados y utilización.

(12)

En este capítulo trataremos de los ERRORES SISTEMÁTICOS.

1.2

MEDIDA DIRECTA

Es el caso en que se trata de determinar la medida de la cantidad de una cierta magnitud mediante la utilización directa de algún instrumento.

1.2.1- Error absoluto

Al realizar una medición de una cierta cantidad, la medida x, no se sabe si corresponde o no al valor exacto de la misma, por lo que es necesario indicar su mayor

o menor bondad, lo que se lleva a cabo mediante el error absoluto x. El error absoluto,

en principio, se define como el valor absoluto de la diferencia, entre la medida y el valor verdadero: v x x x  

El error absoluto es una cota o límite de error: define un intervalo dentro del cual se encuentra el valor verdadero.

¿Cómo se establece tal intervalo? A partir de la definición de error absoluto se puede considerar que el valor de una cierta cantidad X es alguno de los incluidos en el intervalo:

x x

X   (1.1)

La relación (1.1) es el modo correcto de expresar el resultado de una medición cuando la causa de error es sistemática. La información que transmite (1.1) es que, aunque se desconoce el valor verdadero que se pretende determinar con la medida, tal valor está

(13)

acotado, pues se encuentra en el intervalo abierto de valores delimitado por x-∆x, y x+∆x.

Ahora bien, si el error absoluto se define como la diferencia entre la medida y el valor verdadero, el desconocimiento que, en cualquier caso, tenemos del valor verdadero hace inoperante tal definición, al menos en un sentido estricto, por lo que, desde un punto de vista práctico,

se toma como error absoluto el error instrumental, es decir, el debido al instrumento utilizado.

¿Y cuál es el error instrumental? A menos que las especificaciones del aparato indiquen otra cosa, en general,

El error instrumental es la cantidad correspondiente a la más pequeña división de la escala del aparato utilizado.

Que el error instrumental juega el papel del error absoluto al determinar un intervalo de incertidumbre puede ilustrarse con el siguiente ejemplo. Consideremos una balanza digital que aprecia hasta la centésima de gramo y cuyo error instrumental es de una centésima, es decir, de un dígito: 0,01 g. Con ella se mide el valor de una cierta masa. Sea el resultado de una medición 5,23 g, que no se sabe si es o no el valor verdadero de la masa medida. En efecto, supongamos que la balanza actúa por defecto y que el valor verdadero fuera 5,238 g; en este caso la balanza señalaría 5,23 g. En consecuencia, lo único que podemos saber es que el valor verdadero se encuentra entre 5,23 y 5,24 g. Por el contrario, si la balanza actuase por exceso y el valor real fuese de, por ejemplo, 5,223, el valor indicado por la misma sería también de 5,23 g. En este segundo caso lo único que se puede afirmar es que el valor verdadero se encuentra entre 5,22 y 5,23 g. Ahora bien, como desconocemos el comportamiento de la balanza, tenemos que considerar ambas posibilidades

(14)

simultáneamente, mediante el intervalo definido por 5,22 - 5,24 g, en el que se encuentra el valor verdadero, intervalo que puede expresarse mediante el error absoluto en la forma:

m = 5,23  0,0l g.

a)

Tanto x como x son valores de cantidades de una misma magnitud, por lo que en (1.1)

hay que añadir la unidad utilizada. En el caso de la balanza comentada en el recuadro anterior, el resultado de la medida de la masa se ha expresado como

m = 5,230,01 g.

1.2.2- Error relativo

Para poder comparar los errores de diferentes medidas es necesario utilizar un índice adimensional. (Piénse, por ejemplo, en un error instrumental de 1 mm:

∆L=10-3

m; la incertidumbre que genera en el valor exacto, es decir, el intervalo que determina tal error absoluto tiene una significación muy diferente si se mide una longitud de unos pocos metros o se mide una distancia de decenas de metros). El índice adimensional más sencillo es el

error relativo r, definido como el cociente entre el error absoluto y el valor medido:

x x

r  (1.2)

a)

El error relativo es adimensional y normalmente se expresa en tantos por ciento. En el ejemplo anterior de la balanza, el error relativo de la medida es

(15)

r = 0,01/5,23 = 0,002 = 0,2%

1.2.3- Exactitud y precisión de las medidas

Una medida es tanto más exacta cuanto menor sea el error absoluto asociado. La exactitud se define como la inversa del error absoluto.

x e

 1 (1.3)

Una medida es tanto más precisa cuanto menor sea su error relativo.

La precisión se define como la inversa del error relativo.

r

p1 (1.4)

1.2.4- Exactitud, precisión y sensibilidad de los instrumentos de medida

Los anteriores conceptos de exactitud y precisión se pueden aplicar a los aparatos de medida. 1

La sensibilidad de un instrumento de medida expresa la relación entre la

respuesta del mismo y el estímulo que la ha provocado. No es, por ello, un índice de error asociado a un proceso de medida, sino que es una característica del aparato. El cociente respuesta/estímulo puede establecerse de varias maneras; una relación, válida

1 A veces, en relación con un instrumento, se utiliza la inversa del error absoluto (esto es, la

(16)

tanto para instrumentos analógicos como digitales, permite cuantificarla del siguiente modo:

sensibilidad de un instrumento de medida es la inversa de la mínima cantidad que produce una respuesta del mismo.

Tal cantidad corresponde en muchos casos con el error instrumental x, pero no

siempre.

a)

En las especificaciones de algunos aparatos se indica el error instrumental mediante el error relativo de la medida y el número de dígitos a considerar, error que puede ser diferente según el rango de la escala que se utilice. Veamos el caso de un polímetro, cuyas especificaciones en la escala de voltajes se muestran a continuación, Figura (1.1).

Figura 1.1

(17)

3.46

V

El error instrumental es: ∆V = 3,46 x 0,008 + 0,01 x 3 = 0,027 + 0,03 = 0,06

Y el resultado de la medida se ha de expresar como

V = 3,46  0,06 V

Si no se conocen las especificaciones del aparato, se toma como error instrumental 1 dígito, lo que corresponde a 10 mV = 0,01 V (en la escala 0-20V a la que corresponde la medida).

La resolución en cada rango de valores, que figura en las especificaciones del polímetro, está conectada con la sensibilidad del aparato.

b)

De la información que proporciona la Figura (1.1) se puede determinar en qué rango de medidas el polímetro es más exacto y más preciso. Sigamos en la tabla AC VOLTAGE. Tomando el valor de fondo de escala, los errores instrumentales son:

Rango Error instrumental Resolución

200 mV ∆V = 2,7 mV 100 μV

2 V ∆V = 19 mV 1 mV

20 V ∆V = 190 mV 10 mV

200 V ∆V = 1900 mV 100 mV

700 V ∆V = 11,4x103 mV 1 V

De acuerdo con estos valores, el rango en el que el polímetro es más exacto es el de 200 mV (es el de menor error absoluto), mientras que es más preciso en los tres rangos intermedios (que tienen el menor error relativo).

(18)

c)

Exactitud y precisión: su relación con el calibrado y la dispersión

A los conceptos exactitud y precisión también se les suele dar otro significado cuando se refieren a instrumentos o métodos de medida. Supongamos que con un instrumento se realizan varias medidas de una determinada cantidad. Admitamos que se conoce su valor exacto, entendiendo por tal el valor que se ha determinado previamente con un instrumento perfectamente calibrado respecto a patrones de medida internacionales. La desviación de la media de las medidas respecto del valor exacto nos proporciona la exactitud del instrumento. Es decir, se puede también interpretar que

la exactitud de un instrumento está asociada a la calidad de su calibración, cuanto mejor esté calibrado más exacto es.

Por otro lado, también se puede considerar que

la precisión de un instrumento está asociada a la dispersión de las medidas; cuanto menor es la dispersión de éstas, mayor es la precisión del aparato utilizado. Precisión            Exactitud Figura 1.2

Lo anteriormente expuesto se ilustra en la Figura (1.2), en la que se representan cuatro posibles casos. Los puntos rojos representan las medidas, el punto gris el valor

(19)

exacto. Los casos de la derecha son más exactos que los de la izquierda, pues sus valores medios se encuentran más próximos al valor exacto; los superiores en la gráfica son más precisos que los inferiores, al estar sus medidas más agrupadas.

1.2.5- Forma correcta de expresar los resultados

Ya se ha dicho que (1.1) es la forma correcta de expresar el resultado de una medición, indicando las unidades correspondientes. Conviene, además, hacer dos observaciones: una relativa a la limitación en el número de cifras con que se expresa el error y la medida, y otra, al redondeo de números.

A] LIMITACIÓN EN EL NÚMERO DE CIFRAS

Debe limitarse el número de cifras con que se expresa el error.

Se escribe el error con una cifra, al margen de las potencias de diez, positivas o negativas, que convengan para indicar el orden de magnitud de dicha cifra.

A veces, se escriben dos cifras si la primera empieza por 1 o por 2. Adoptaremos aquí la norma de escribir solamente una cifra.

Ejemplo.

La expresión 5,24  0,32 g no es correcta, pues el 3 nos indica una cierta indeterminación en las décimas, con lo que la inseguridad es total en las cifras siguientes. Por tanto, considerar el 2 en el error no tiene objeto, y la expresión correcta será

5,2  0,3 g.

(20)

Si el resultado es 9800  100 m, se escribirá (98  1) x 102 m.

Si el resultado es 9800 10 m, se escribirá (980  1) x l0 m.

Si el resultado es 9800  1 m, la expresión es adecuada.

El error limita el número de cifras de la medida, de tal forma que

se escribe el número que indica la medida hasta la primera cifra afectada de error, inclusive.

Ejemplo.

Si el resultado de una medición es 23,42  0,3 g, significa que el verdadero valor está comprendido entre 23,1 y 23,7 g. Por lo tanto, si no estamos seguros del 4, ya que puede tomar cualquier valor entre 1 y 7, ambos inclusive, menos lo estaremos del 2 que le sigue. Es decir, tenemos una cierta inseguridad en las décimas; en las centésimas la inseguridad es total. En consecuencia, la forma correcta de escribir el resultado anterior es

23,4  0,3 g.

Los ejemplos anteriores nos permiten introducir fácilmente el concepto de cifras significativas y cifras exactas.

(21)

a)

Cifras significativas

Cifras significativas son las que suministran información respecto del valor verdadero; las que constituyen el intervalo de valores en el que aquel se encuentra.

b)

Cifras exactas

Cifras exactas son las que no vienen afectadas de error.

Así, en el primer ejemplo, el intervalo viene dado por (99 - 97) x 102 m, constituido

por dos cifras, al margen de la potencia diez; diremos que (98  l) x 102 tiene dos cifras

significativas, el nueve y el ocho y una sola cifra exacta, el nueve. En el segundo caso, el número tiene tres cifras significativas (el 9, el 8 y el 0) y dos exactas (el 9 y el 8), siendo este intervalo más restringido que el anterior. Observe que si bien el intervalo es 979-981, el error afecta a las unidades y no a las decenas, por lo que el número de éstas es también cifra exacta. Del mismo modo, 9800  1 tiene cuatro cifras significativas (el 9, el 8 y los dos ceros), determina un intervalo mucho más limitado que los anteriores, y son tres las cifras exactas (el nueve, el ocho y el primer cero).

B] REDONDEO DE UN NÚMERO

Cuando el primer dígito suprimido es menor que 5, el último dígito mantenido no se modifica. Si es igual o mayor que 5 se aumenta en una unidad el último dígito mantenido.

(22)

1.3

MEDIDA INDIRECTA

1.3.1- Propagación lineal del error absoluto

Abordemos ahora el caso en que no es susceptible la realización de la medida directa de la cantidad incógnita u, sino que la determinación de su valor se realiza mediante la medida directa de cantidades de magnitudes diferentes x, y,… relacionadas entre sí por una ecuación:

,...) , (x y u u (1.5)

Se trata aquí de determinar el error de u, es decir, en qué medida afectan a u los errores cometidos en la determinación de las x, y,.... El error absoluto de u corresponderá al incremento total de la función u (1.5):

u = u(xx,yy,…) – u(x,y,…) (1.6)

Y para determinar en qué modo afecta a u las variaciones de las magnitudes independientes x, y,…, admitiendo que los errores son pequeños en relación con la medida, como es habitual, se puede utilizar el cálculo diferencial para cuantificar el error de u. Así, ...        dy y u dx x u du (1.7)

En la ecuación anterior du, dx, dy, representan los errores absolutos.

(1.7) permite calcular el error absoluto de u si se conocen los errores absolutos dx, dy,… de las variables medidas directamente. Y como tal relación entre du y dx, dy, …

(23)

es lineal, se habla de propagación lineal del error absoluto. La dependencia entre los errores absolutos que expresa (1.7) es válida únicamente cuando se trata de causas sistemáticas.

1.3.2- Limitaciones en la aplicación del cálculo diferencial

La aplicación del cálculo diferencial se realiza con ciertas limitaciones.

La primera de ellas es que, en la ecuación (1.7),

la contribución de los errores absolutos dx, dy, … al error de u es siempre aditiva,

con lo que las sumatorias indican sumas aritméticas y no algebraicas. Esto representa tomar el caso más desfavorable, es decir, no considerar la posibilidad de compensación en los errores de las variables obtenidas experimentalmente (lo que es lógico, pues x, y,… son magnitudes independientes: no tendría sentido que, por ejemplo, los errores asociados a un cronómetro se compensaran con los atribuibles a la medida de distancias). Consecuentemente,

si al realizar el cálculo matemático, figura en la ec. (1.7) algún término con signo negativo, éste se convertirá en positivo.

De este modo, la ecuación anterior puede escribirse como

...        dy y u dx x u du (1.8)

(24)

donde las barras significan valor absoluto.

a)

Hay que tener en cuenta, no obstante, que la norma anterior se refiere a la sumatoria de los términos, y no a los coeficientes de que viene afectado cada error, por lo que si en estos coeficientes aparecen diferencias hay que mantenerlas.

Ejemplo. Sea la función xy y x u 

El cálculo diferencial proporciona la expresión

dy y x y x x xy dx y x y x y xy dy y u dx x u u   2(2 )   2( 2 )      

Pues bien, según las consideraciones precedentes, tomaríamos como error de u

dy y x y x x xy dx y x y x y xy u  2(2 )   2(2 )

en donde se ha cambiado el signo en la suma de las contribuciones de los errores, pero no en sus coeficientes.

En (1.5) alguna de las x, y,… puede corresponder a una constante física o a un número irracional. La segunda limitación en la aplicación del cálculo diferencial se refiere, según se expresa en (1.8), a considerar distintas de cero diferenciales de

(25)

constantes o números. El sentido que, en este contexto, hay que atribuir a dx es el del error que se comete si no se utilizan en los cálculos todas las cifras de las constantes o de los números irracionales (que tienen infinitas cifras) que intervienen en la

expresión (1.5). (Así, el utilizar el número  como 3,141 implica cometer un error que

vendrá dado por d = 0,000592654...  0,0006 ya que  = 3,141592654...)

El error asignado a las constantes o a los números irracionales es el correspondiente a las cifras suprimidas.

1.3.3- Análisis de distintos problemas

En la determinación del error en las medidas indirectas pueden presentarse distintos casos que conviene abordar por separado, y que designaremos como problema directo, semidirecto e inverso.

A] PROBLEMA DIRECTO

Se presenta cuando en la relación de dependencia entre la variable u y las variables x, y,… ,...) , (x y u u (1.5)

se conocen los valores de x, y,… y el de sus errores absolutos dx, dy,… El problema consiste en determinar u con (1.5), y su error absoluto du mediante (1.8).

a)

En algunos casos, la expresión de dependencia (1.5) puede ser complicada, con lo que la determinación de las derivadas parciales que figuran en (1.8) resulta laboriosa y el procedimiento lento. Es aconsejable, en estas circunstancias, utilizar un método más rápido, que consiste en evaluar de manera directa la contribución del error de cada variable x, y,… en el error de la variable u, mediante

(26)

,...) , ( ,...) , (x x y z x y u dx x u  

Lo que está justificado por la definición de derivada parcial.

b)

Método de la diferencial logarítmica

Si (1.5) es una expresión monomia, es más cómodo calcular du evaluando previamente su error relativo, en función de los errores relativos de las restantes variables. Esto se consigue aplicando el método de la diferencial logarítmica. Por ejemplo, sea la ecuación entre u y x,y la siguiente:

xy

u

A la ecuación se le aplican logaritmos:

y x u ln ln ln   Su expresión diferencial es y dy x dx u du

que permite calcular el error relativo de u conocidos los errores relativos de x e y. De ella se obtiene el error absoluto de u:

        y dy x dx u du

(27)

Ejemplo.

Se pide calcular el área de un rectángulo sabiendo que sus lados son a = 2,0 0,1 cm y b = 5,0  0,2 cm.

El área S es S = a.b = 10 cm2.

Su error dS se obtiene diferenciando la expresión anterior: dS = a.db + b.da = 2x0,2 + 5x0,1 = 0,4 + 0,5 = 0,9 cm2

El resultado es, pues,

S = 10,0  0,9 cm2

En el desarrollo anterior se ha calculado directamente el error absoluto del área; también se puede obtener calculando previamente su error relativo, y éste mediante la diferencial logarítmica.

En este caso se tiene que ln S = ln a + ln b y de ella, (dS/S)= (da/a)+ (db/b)= 0,09 5 2 , 0 2 1 , 0 Por tanto, dS = 0,09 x S = 0,9 cm2 B] PROBLEMA SEMIDIRECTO

En este caso, en la ecuación (1.5) alguna (puede que más de una) de las x, y,…

(28)

quiere o no se puede considerar todas. La cuestión es determinar cuántas cifras hay que utilizar para que su contribución al error de u sea despreciable en comparación con el que determina la medida de las otras variables. Si y es la constante que aparece en (1.5), la contribución de y al error de u debe ser al menos 10 veces menor que el de las restantes variables x, z,.... Como el error absoluto de u es:

...           dz z u dy y u dx x u du se elige que                                                ... 10 ... 10 1 dz z u dx x u y z dy dz z u dx x u dy y u (1.9)

Una vez que se ha obtenido dy con (1.9) se puede ya

tomar todas las cifras de la constante o número hasta la que corresponde al lugar que indica el error dy.

Con ello, la contribución de y al error de u es despreciable, pues es inferior a la décima parte del error de las variables x, z,... En efecto, si por ejemplo resulta ser dy = 0,03 utilizar la constante y hasta la segunda cifra decimal implica cometer un error de omisión de milésimas, pues son las cifras a partir de las milésimas las que se omiten.

No obstante, la utilización de calculadoras u ordenadores en las operaciones permite, habitualmente, introducir un número elevado de cifras sin alargar los tiempos de cálculo, asegurando que el error introducido es despreciable sin necesidad de estimar dy.

(29)

C] PROBLEMA INVERSO

Dada la relación (1.5), se quiere obtener u pero con una determinada exactitud, es decir, fijando el error máximo que se puede cometer en dicha medida indirecta. Para ello hay que calcular cuánto tienen que valer dx, dy,… para obtener, como máximo, el du exigido en la medida indirecta; o de otro modo, ¿qué instrumentos se deben emplear en la medida de las x, y,…? En este caso, pues, se conoce du, y aproximadamente las x,

y,…(es decir, se han realizado las medidas pero no se sabe si con un error conveniente

para obtener, como límite, el du fijado), y es preciso calcular los adecuados dx, dy,…

La expresión (1.8) determina el valor máximo de dx compatible con la

condición impuesta (en el caso de una sola variable independiente), o una ecuación en la que se puede elegir arbitrariamente la cuantía de todos, menos uno, de los errores de las magnitudes medidas directamente (en el caso de varias variables). El conocimiento de los dx, dy,… máximos implica saber qué instrumentos son los más idóneos en la realización de las medidas directas de las variables independientes. El proceso experimental llevaría, por lo tanto, a la nueva determinación de las x, y,… con los instrumentos elegidos como adecuados, lo que conduciría al problema directo para la determinación concreta de u y du.

Ejemplo.

Se desea medir la longitud de una circunferencia con un error no superior a 1 cm. La medida del radio es 100 cm. ¿Qué instrumento hemos de emplear para medir el radio?

De acuerdo con el enunciado, al indicar que r = 100 cm significa que el radio se ha medido con una cinta métrica dividida en cm, desconociendo, por tanto, los milímetros que tiene; esto puede o no tener importancia en cuanto al objetivo que se pretende. Veámoslo.

La longitud de la circunferencia y el error fijado vienen dados por

(30)

con lo que

dr = 1/2 = 1/2x3,14 = 0,16 = 0,1 cm.

(Observe que al redondear se ha tomado el caso más desfavorable, pues el elegir dr=0,2 cm implicaría un dL mayor que el exigido). El error máximo que podemos cometer al medir el radio es de 1 mm, por lo que se puede emplear una cinta o regla milimetrada. Con dicha regla se medirá r de nuevo, aproximando hasta los milímetros. A partir de aquí el problema se convierte en directo, utilizando el nuevo valor de r y de su error.

1.3.4- Serie de medidas

Hasta ahora se ha hablado de la realización de una medida de una determinada cantidad, a la que le hemos asociado el error experimental correspondiente. Pero las causas de error, sistemáticas y accidentales, siempre están presentes en la realización de las medidas, y lo que hay que determinar es cual de ellas es la causa que predomina, puesto que la estimación del error obedece a tratamientos matemáticos diferentes. Para ello, para discernir qué causa de error influye de manera más decisiva en un proceso de medición, se sigue el criterio siguiente:

Se realizan tres medidas y se calcula su media; si la diferencia máxima, en valor absoluto, entre las medidas y la media es superior al error instrumental, las causas predominantes son accidentales. En caso contrario, son sistemáticas.

La justificación es que si las causas sistemáticas son las que ejercen mayor influencia en una experiencia concreta, basta con tomar un número de medidas pequeño, ya que el aumento de las mismas no reduce la limitación instrumental.

(31)

En este caso, el resultado se expresa utilizando el valor medio de las medidas x :

x x

x  (1.10)

En cambio, si son las causas accidentales las predominantes se hace preciso realizar un mayor número de medidas con objeto de aplicar el análisis estadístico y obtener toda la información posible de las mismas, y así determinar mejor la influencia de aquellas en la incertidumbre experimental.

(32)
(33)

Capítulo 2

ERRORES ACCIDENTALES

2.1 Población y muestra 26

2.2 Estadística descriptiva 27

2.2.1- Medidas directas. Distribuciones de frecuencias y estadísticos 27 2.2.2- Medidas indirectas. Propagación cuadrática de la varianza 32

2.2.3- Desviación típica de la media 34

2.3 Estadística inferencial 35

2.3.1- Distribuciones de probabilidad y parámetros 35

2.3.2- Estimación 37

(34)

2.1

POBLACIÓN Y MUESTRA

Cuando en una medición las causas accidentales son las predominantes es necesario realizar numerosas medidas para determinar mejor su influencia en los resultados. Ahora bien, el diseño de la experiencia puede obedecer a distintos planteamientos.

Repetir n veces la medida de una cantidad en un determinado sistema, tratando de mantener éste en las mismas condiciones, (por ejemplo, medir repetidamente la temperatura de un sistema dado, manteniéndolo en unas determinadas condiciones).

Realizar la medida de una cantidad en una colección de n sistemas aparentemente iguales para determinar su valor más representativo en tal conjunto (por ejemplo, medir la temperatura mínima de n congeladores iguales).

En los dos casos anteriores se trata de la determinación de una sola variable, pero en determinadas circunstancias lo que se analiza es la posible asociación entre dos (o más) magnitudes de un cierto sistema, tratando de averiguar la relación que pueda existir entre ellas.

Realizar una serie de medidas de la pareja de variables investigada, bien en un mismo sistema pero en distintas condiciones (por ejemplo, parejas de valores de presión y temperatura de un gas en distintos estados), bien en una colección de n elementos diferentes (por ejemplo, pares de valores de radiación solar y temperatura atmosférica a nivel del suelo, en distintos puntos de una cierta zona geográfica). En el análisis de las dependencias entre variables (que será tratado en el capítulo de la regresión lineal) también pueden manifestarse, claro es, tanto errores sistemáticos como accidentales.

(35)

En todos estos casos, las medidas deben ser tratadas estadísticamente, lo que obliga a introducir algunos conceptos nuevos, que se exponen a continuación.

Población es el conjunto de todos los elementos que tienen una o varias propiedades determinadas.

Muestra es cualquier subconjunto de una población.

Tamaño de una población o de una muestra es el número de elementos que contiene.

Según que la propiedad elegida para caracterizar los elementos pueda o no ser expresada numéricamente, se dice que es cuantitativa o cualitativa. En el primer caso, es discreta si sólo puede tomar determinados valores de un intervalo, y continua si, teóricamente, puede tomar todos los valores del mismo.

Teniendo en cuenta que, excepto en el caso de poblaciones pequeñas, el experimentador siempre va a trabajar con una muestra de una población dada, cabe dar un doble enfoque al estudio de los datos:

analizar la muestra como tal, lo que constituye la estadística descriptiva, tratar de obtener conclusiones relativas a la población a partir de tal muestra,

planteamiento conocido como estadística inferencial.

2.2

ESTADÍSTICA DESCRIPTIVA

2.2.1- Medidas directas. Distribuciones de frecuencias y estadísticos La descripción de una muestra implica:

tabular los valores obtenidos y sus frecuencias (es decir, el número de veces que cada valor se repite en la muestra),

(36)

realizar algún tipo de representación gráfica calcular sus estadísticos.

A) TABULACIÓN

Para el estudio estadístico de una muestra, de tamaño n, hay que ordenar los datos en forma de tabla de distribución de frecuencias como la que sigue:

valores de la variable xi Frecuencias fi frecuencias relativas fi/n

En la primera columna se escriben los valores distintos de la variable, ordenados de menor a mayor; en la segunda columna se escriben las frecuencias correspondientes; en la tercera se indican las frecuencias relativas (fi /n).

B) REPRESENTACIÓN GRÁFICA

Con la tabla anterior se puede construir el diagrama de barras, que se obtiene representando en unos ejes cartesianos las frecuencias o frecuencias relativas (en tantos

por ciento) en función de los valores xi. Las barras se obtienen uniendo cada pareja de

valores (fi, xi) con xi , Figura (2.1).

f

x1 x2 x3 x4 x5 x

(37)

Cuando el número de valores distintos de la muestra es grande, 30 o más, se suelen agrupar en intervalos de valores o intervalos de clase, sustituyendo cada medida por el valor del centro del intervalo (o marca de clase) al que pertenece. De esta forma se comete un error inferior a la semiamplitud del intervalo. En este caso, habrá que elaborar una tabla de distribución de frecuencias en la que, en vez de los valores, figuren los extremos de los intervalos (ei - ei+1) y las marcas de clase, ci.

Intervalo ei - ei+1 marca de clase ci frecuencia fi frecuencia relativa fi/n

Con dicha tabla se puede construir el histograma correspondiente, levantando sobre cada intervalo, que se toma como base, un rectángulo vertical de altura igual a la frecuencia absoluta o relativa, de la marca de clase correspondiente, Figura (2.2). Por ello, el histograma, al igual que el diagrama de barras, expresa de modo gráfico la distribución de frecuencias de la muestra.

f

c1 c2 c3 c4 c5 c

Figura 2.2

C) ESTADÍSTICOS

En tercer lugar, hay que calcular los estadísticos de la muestra.

Los estadísticos son valores representativos de la muestra y de la dispersión de sus elementos.

(38)

Sea x una variable aleatoria1; n el tamaño de la muestra de los valores medidos xi de la

variable, de frecuencias fi, y k el número de valores distintos de x.

Los estadísticos fundamentales, referidos a medidas de posición y de dispersión son 2:

Media. Se define la media como

    k j j j n i i n f x n x x 1 1 (2.1)

Desviación típica o estándar de la muestra

La desviación típica s de una muestra se define de la forma siguiente:

1 ) ( 1 ) ( 1 2 1 2      

n f x x n x x s k i j j n i i Puesto que

              n i i n i i n i n i i i n i i x x x x nx x xnx nx x nx x 1 2 2 1 2 2 1 1 2 2 1 2 2 2 ) (

la desviación típica puede obtenerse con la expresión más cómoda

1 1 2 2   

n x n x s n i i (2.2)

1 Variable que puede tomar distintos valores con una probabilidad asociada a cada uno de ellos.

2

En relación con las medidas de posición, además de la media, se puede mencionar la mediana (es el valor que divide la cantidad de observaciones en dos partes iguales; hay tantas medidas con valores superiores a la mediana como valores inferiores), y la moda (es aquel valor que más se repite, que tiene una frecuencia mayor), entre otras.

(39)

Observe que la desviación típica se ha de expresar en las mismas unidades que las medidas.

Varianza.

La varianza s2 se define como el cuadrado de la desviación típica.

Tanto la desviación típica como la varianza son un índice del grado de dispersión de los valores de la muestra con respecto a su media, de modo que cuanto más próximos sean los valores xi a x , menores serán s y s

2

.

Las desviaciones (xix)unas veces serán positivas y otras negativas, de modo que si se suman se compensarán, y no darán cuenta real de la dispersión de las medidas. De ahí que se eleven al cuadrado para evitar tal compensación3. Además, en la definición de la

desviación típica, se promedian las desviaciones 2

)

(xix . Tal promedio parece más inmediato hacerlo con n en vez de n-1. Sin embargo, en primer lugar, la diferencia que puede resultar de dividir con n o con n-1 no es significativa, a no ser que n sea muy pequeño (n <10). En segundo lugar, se pueden dar dos razones en favor de utilizar n-1. Por un lado, si se realizase una única medida, s = 0/0, es decir, resulta indeterminada, mientras que de utilizar como denominador n, resultaría s = 0/1 = 0: con una sola medida parece más consistente decir que no está determinada la desviación típica que afirmar que es nula. Por otro lado, desde un punto de vista teórico, si se define s con denominador n-1 resulta que el valor esperado de s2 coincide con la varianza de la población, como se verá

más adelante.

3 La función suma de valores absolutos x

xi no tiene 'buen comportamiento" desde el punto de

(40)

2.2.2- Medidas indirectas. Propagación cuadrática de la varianza

Abordemos ahora el caso de las medidas indirectas, es decir se trata de obtener el valor y su error de una magnitud que no se mide directamente con ningún instrumento, sino que se evalúa mediante las medidas directas de otras variables con las que está relacionada a través de una ecuación. Sea la variable dependiente u

,...) , (x y u u

función de varias variables aleatorias e independientes, x, y, ..., con medias x , y ,…, y

varianzas sx 2 , sy 2 ,.... Su valor medio es ,...) , (x y u u(2.3) Es decir,

el valor medio de una función es la función de los valores medios de las variables.

Demostración.

Si se desarrolla u en serie de Taylor respecto de las medias, suponiendo desviaciones (xix),(yiy),… pequeñas, se pueden despreciar los términos no lineales, y resulta, ... ) ( ) ( ,...) , ( ,...) , (                        y i x i i i i y u y y x u x x y x u y x u u (2.4)

en donde, como se expresa en la propia ecuación, las derivadas parciales se evalúan para los valores medios.

(41)

,...) , ( ,...) , ( ... ) ( ) ( 1 ,...) , ( 1 1 1 y x u n y x u n y u y y x u x x n n y x u n u u n i y i x i n i i i n i i                                  

  

pues la segunda sumatoria es nula, como puede comprobarse al tener en cuenta la definición de los valores medios x , y ,…

La varianza de u se puede obtener mediante la expresión

... ) ( ) ( ) ( 2 2 2 2 2                   s y y u x s x u u s y x (2.5)

que es la fórmula de propagación cuadrática de la varianza. Esta relación

permite determinar la varianza de la variable u, dependiente de las variables x, y, ..., si se conocen las varianzas de éstas.

Esta expresión juega el mismo papel que la (1.8), que relaciona el error absoluto de la función u con los de las variables x, y,..., cuando las causas sistemáticas son las predominantes.

Demostración.

(42)

... ) , ( 2 ... ) ( ) ( ... 1 ) )( ( 2 ... 1 ) ( 1 ) ( 1 ) ( ) ( 2 2 2 2 2 2 1 2 2 1 2 2 1 2 2 1 2 2                                                                                                                          

    y x s y u x u y s y u x s x u n y y x x y u x u n y y y u n x x x u n u u u s y x y x n i i i y x n i i y n i i x n i i con                  1 ) )( ( ) , ( 1 n y y x x y x s n i i i (2.6)

la denominada covarianza de x e y. Si las variables x, y,... son independientes, sus covarianzas son nulas (unos sumandos serán positivos y otros negativos, y se compensarán en promedio si el número de medidas n es suficientemente grande). Con ello, la varianza de la función u es la dada por (2.5).

2.2.3- Desviación típica de la media

La expresión (2.5) se puede aplicar a la determinación de la varianza de la media. Para que lo dicho tenga justificación hay que tener en cuenta que los estadísticos son variables aleatorias, y proporcionan valores distintos si se cambia la muestra a partir de la cual han sido obtenidos. Tiene sentido, pues, tratar de calcular su dispersión mediante la varianza. Así, sea una muestra 1 de una determinada población, de media

1

x y varianza s1 2

, una muestra 2 de la misma población, de media x y varianza s2 2

2

, ...,

(43)

varianzas son iguales por corresponder todas las muestras a la misma población, s1

2 = s2 2 = ... = sn 2

= s2. La media de las medias será la función

   n i i n x x x x x 1 2 1, ,...) (

y aplicando la expresión (2.5), la varianza de la media viene dada por

n s n ns s n s n s x x x s n i i i i n i i n i i 2 1 2 2 2 2 2 2 1 2 2 1 2 1 1 ) (                         

   Es decir,

) 1 ( ) ( 1 2 2   

n n x x x s n i i 4 (2.7)

Consecuentemente, la desviación típica de la media es

n s x

s( ) (2.8)

2.3

ESTADÍSTICA INFERENCIAL

2.3.1- Distribuciones de probabilidad y parámetros

La estadística inferencial trata de obtener características de una población a partir del análisis de una muestra de la misma. Dado que una población implica un número de elementos n muy grande o, incluso, infinito, es poco práctico o inviable

4

De igual modo se puede calcular la desviación típica de las desviaciones típicas si, que viene

(44)

considerarlos a todos. En el caso que nos ocupa de análisis de errores aleatorios, la población estaría constituida por todas las medidas que se pudieran llevar a cabo de la variable estudiada, por lo que su tamaño sería muy elevado o infinito.

Al tratar poblaciones, en el límite de n muy grande o infinito, las distribuciones de frecuencias relativas asociadas a muestras que gráficamente se representa mediante histogramas, se convierten, en distribuciones de probabilidad –discreta si la variable es discreta; continua, si lo es la variable-, que matemáticamente se formulan mediante una función de probabilidad o una función densidad de probabilidad, respectivamente. En (2.4) se volverá sobre esta cuestión.

Del mismo modo, en el límite, los estadísticos de la muestra pasan a ser los parámetros de la población, de modo que,

los parámetros son valores representativos de una población y de la dispersión de sus elementos.

Matemáticamente, los parámetros se obtienen aplicando el lim n o la integral a los estadísticos correspondientes. De este modo, la media , en el caso de variable discreta, es ) ( lim lim 1 1 j k i j j k j j n n x p x n f x x            

Si x es continua y su campo de variación es todo el eje real, la media poblacional viene dada por

        xdp xf(x)dx  (2.9)

(45)

         k j j j k j j j n s x p x x p x 1 2 2 1 2 2 2 ) ( ) ( ) ( lim    (2.10) Y si la variable es continua,

               2 2 2 2 2 ) ( ) ( ) ( ) (     x dp x f x dx x f x dx 2.3.2- Estimación

Estimación es la evaluación de los parámetros de una población, de valores

desconocidos, mediante el análisis de una muestra aleatoria5 de la misma. Uno de los

objetivos de la estadística inferencial es precisamente hallar métodos eficientes para realizar tal estimación. Existen dos procedimientos de estimación: la estimación puntual, que proporciona un valor para cada parámetro, y la estimación por intervalo de confianza, que establece un par de valores entre los que se encuentra, con una cierta probabilidad, el valor del parámetro.

A) ESTIMACIÓN PUNTUAL

La estimación puntual de un parámetro se realiza mediante un estadístico cuyo valor promedio coincide con el parámetro.

De este modo,

la media muestral x , es un buen estimador de la media de la población , y la varianza muestral s2, es un buen estimador de la varianza de la población,

2

.

5 Una muestra se dice que es aleatoria cuando el método para obtenerla es tal que todos los

(46)

La estimación puntual de un parámetro se realiza mediante un estadístico cuyo valor esperado o esperanza matemática coincide con el parámetro6. Se define como valor esperado E[g (x)], de una función g (x) de la variable aleatoria x :

si x es discreta, a

  k j j j x p x g x g E 1 ) ( ) ( )] ( [ Y, si x es continua, a

    g x f x dx x g E[ ( )] ( ) ( )

Si comparamos estas definiciones con (2.9) y (2.10) respectivamente, es inmediato afirmar que el valor esperado de una función g(x) es su valor promedio. Así, aplicando la definición, el valor esperado de la variable discreta x de una población es

  

k j j j j x p x x E 1 ) ( ] [

esto es, su media poblacional.

El valor esperado de la media de una muestra de la misma población

  n i i n x x 1 es      

  n n n x E n x E n i n i j 1 1 1 ] [ 1 ] [

de modo que el valor esperado de la media de una muestra es la media poblacional, lo que indica que la media muestral x es un buen estimador de la media de la población .

Del mismo modo, el valor esperado de la varianza muestral es la varianza poblacional, lo que indica que la varianza muestral s2 es un buen estimador de la varianza

de la población 2.

En efecto. El valor esperado de la varianza muestral es

(47)

        n i i x x n E s E 1 2 2 ) ( 1 1 ] [

Desarrollemos, primero, la sumatoria en la forma

2 1 2 2 1 2 2 1 1 2 2 1 1 2 1 2 1 2 ) ( ) ( ) ( ) )( ( 2 ) ( ) ( ) )( ( 2 ) ( ) ( ) ( ) ( 2 ) ( ) ( ) ( ) (                                                

        x n x x n n x n x x x n n x x x x n x x x x x x x n i i n i i n i i n i i n i i n i i n i i n i i

Esta expresión es la que se utiliza en el cálculo del valor esperado de s2:

2 2 2 2 1 2 2 1 2 2 1 2 1 2 2 1 1 ) ( 1 1 ) ( ) ( 1 1 ) ( ) ( 1 1 ) ( 1 1 ] [                                                      n n n n x n n x nE x E n x n x E n x x n E s E n i n i i n i i n i i

Observe que se ha utilizado la relación

n x 2 2 ) ( 

  , similar a (2.8) relativa al estadístico

varianza de la media.

En definitiva, el valor esperado de la varianza muestral es la varianza poblacional.

B) ESTIMACIÓN POR INTERVALO DE CONFIANZA

La estimación por intervalo de confianza de la media de la población se establece mediante la estimación de la desviación típica de la media o error estándar e:

(48)

El intervalo de estimación de la media poblacional, al nivel de confianza del 100(1-)%, para poblaciones muy grandes o infinitas, viene dado por

n s k x x ks x ke x   ( )  (2.11)

Es decir, el 100(1-)% de los intervalos (2.11) correspondientes a todas las muestras de

tamaño n que pueden extraerse aleatoriamente de la población contienen la media de la

población, y el 100% no la contienen.

Si se compara (2.11) con (1.10), se observa que el término con el que se establecen los límites del intervalo en el que se encuentra la media de la población es, en el lenguaje de la física experimental, un error absoluto:

n s k ke x   (2.12)

La diferencia que existe respecto a los errores sistemáticos es que ahora el error absoluto viene asociado a una cierta probabilidad (o mejor, a una probabilidad menor del 100%).

a)

Elección del valor de k

El valor del coeficiente k depende del nivel de confianza que se exija; k = 1, 2, 3 para niveles de confianza aproximadamente del 68,3%, 95,4%, y 99,7%, respectivamente. Con k = 2, el intervalo

(49)

n s

x2 (2.13)

define un conjunto de valores entre los que se encuentra el valor de la media de la población con una probabilidad (nivel de confianza) del 95,4%.

b)

Tamaño de la muestra

Para que la influencia de causas accidentales deban ser tenidas en cuenta en un proceso de medición, el error que inducen será, al menos, del mismo orden de magnitud que el debido a causas sistemáticas, esto es, el error instrumental. Esto permite establecer un criterio sobre el número de medidas que debe contener la muestra. En efecto, de acuerdo con lo anterior, tomar como valor de referencia la igualdad de ambos:

n s k ke x x instrumental  estadísitico   ) ( ) (

permite obtener un valor del tamaño de la muestra. De este modo, una vez que se ha comprobado que la dispersión de las medidas es mayor que el error instrumental (1.3.4), la influencia de las causas aleatorias obliga a tomar más de las tres medidas iniciales realizadas; el número de medidas que como mínimo debe contener la muestra es 2 2 2 ) ( x ins s k n   (2.14)

(50)

En (2.14), s2 es la varianza de la serie inicial de las tres medidas tomadas. Tal relación proporciona un tamaño de muestra asociado a una probabilidad reflejada en el valor que se asigne a k, es decir, un tamaño de muestra con un nivel de significación, en cuanto a la información que se pueda extraer de la misma, que puede ser del 68,3%, 95,4%, o 99,7%, si k es 1, 2 o 3, respectivamente.

c)

Exactitud y precisión en las series de medidas

En definitiva, cualquiera que sea el tipo de error predominante, el resultado de una serie de medidas se expresa en la forma:

x x

x  (2.15)

Si la mayor influencia es debida a causas sistemáticas, ∆x es el error absoluto, y determina la exactitud de las medidas al expresar límites en la desviación de x respecto del valor correcto, (1.10).

Si la mayor influencia es debida a causas accidentales,

n s k x

 , (2.12), y

determina la precisión de las medidas, pues señala su dispersión.

En este sentido, cuanto menores sean los errores sistemáticos más exacta es la experiencia, y cuanto menores sean los errores accidentales, más precisa es.

d)

Medidas indirectas con errores sistemáticos y accidentales

Es un caso relativamente frecuente que se precise determinar el error absoluto de una variable u, uu(x,y,...), que depende de otras x, y,…, algunas de las cuales vienen afectadas de errores sistemáticos y otras de errores accidentales. El error absoluto de u,

(51)

del error instrumental o del error estándar, según el tipo de error –sistemático o accidental- que afecte a cada una de las variables. Así, si el error de x es el instrumental ∆x, y el de y es key, el error de u se obtiene de la expresión

...        key y u x x u u (2.16) Ejemplo.

Se ha fabricado un lote de 1000 arandelas supuestamente iguales, y se desea establecer, entre sus características, el diámetro exterior de las mismas y su error.

Para ello, en primer lugar, se elijen tres arandelas al azar y se miden sus diámetros mediante un palmer, cuyo error instrumental es 0,05 mm. El resultado es:

d1 = 5,30 mm; d2 = 5,55 mm; d3 = 5,50 mm

Y el valor medio:

d 5,45mm

Si el error causante de las diferencias entre las medidas fuera el instrumental, el resultado sería mm ) 05 , 0 45 , 5 ( ) (    d x ins d

lo que implica un intervalo de valores entre 3,40 y 5,50 mm. Como existen dos medidas fuera de dicho intervalo, es evidente que la dispersión de los valores no puede atribuirse al error sistemático, sino que son causas accidentales las que intervienen. Para poder determinar su influencia el primer paso es realizar más medidas. ¿Cuántas? Su número se determina mediante la expresión (2.14), para lo cual hay que calcular la desviación

(52)

Para el valor del parámetro k = 2, utilizando el valor de la desviación típica de las tres medidas se obtiene 5 , 13 ) 05 , 0 ( ) 13 , 0 .( 2 ) ( 2 2 2 2 2     ins x s k n

En consecuencia, el número de arandelas que deben medirse es n = 14. Realizadas las once mediciones restantes, los resultados son:

d(mm): 5,30; 5,55; 5,50; 5,35; 5,50; 5,60; 5,45; 5,55; 5,60; 5,45; 5,45; 5,30; 5,35; 5,65. de media y desviación típica:

mm 11 , 0 ; mm 47 , 5   s d

El resultado, de acuerdo con (2.13), se expresa:

mm ) 06 , 0 47 , 5 ( 2     n s d d

2.4

DISTRIBUCIÓN NORMAL

La población de medidas de variables continuas, cuya aleatoriedad sea debida a la suma de efectos de un gran número de causas independientes, viene descrita por la llamada distribución normal o de Gauss. Por ello si, como sucede frecuentemente, los errores accidentales asociados a la población de medidas de una variable empírica tienen su origen en la superposición de muchas perturbaciones pequeñas e imprevisibles, dicha población obedece a la distribución normal. De ahí la gran importancia de la distribución gaussiana en la cuantificación de errores empíricos

Referencias

Documento similar

You may wish to take a note of your Organisation ID, which, in addition to the organisation name, can be used to search for an organisation you will need to affiliate with when you

Where possible, the EU IG and more specifically the data fields and associated business rules present in Chapter 2 –Data elements for the electronic submission of information

The 'On-boarding of users to Substance, Product, Organisation and Referentials (SPOR) data services' document must be considered the reference guidance, as this document includes the

Products Management Services (PMS) - Implementation of International Organization for Standardization (ISO) standards for the identification of medicinal products (IDMP) in

This section provides guidance with examples on encoding medicinal product packaging information, together with the relationship between Pack Size, Package Item (container)

Jordi:, Bueno, para mi el tema del fallo, del error siempre esta la posibilidad no hay ningún problema, lo único que yo intento gestionar es el error que, por supuesto el error que

Cedulario se inicia a mediados del siglo XVIL, por sus propias cédulas puede advertirse que no estaba totalmente conquistada la Nueva Gali- cia, ya que a fines del siglo xvn y en

Para ello, trabajaremos con una colección de cartas redactadas desde allí, impresa en Évora en 1598 y otros documentos jesuitas: el Sumario de las cosas de Japón (1583),