• No se han encontrado resultados

ESTIMACIÓN DE PARÁMETRO

N/A
N/A
Protected

Academic year: 2021

Share "ESTIMACIÓN DE PARÁMETRO"

Copied!
7
0
0

Texto completo

(1)

ESTIMACIÓN DE PARÁMETRO

HAMLET MATA MATA PROF. DE LA UNIVERSIDAD POLITÉCNICA DE EL TIGRE-VENEZUELA

INTRODUCCIÓN

Es muy interesante conocer las características de las muestras. El cálculo de los estadísticos o índices que las definen y describen son netos y muy rentable. Pero en ocasiones nos preguntamos por las características de la población de origen de donde proceden las muestras. El objetivo parece ambicioso:

se trata de conocer lo que por definición es inalcanzable. Normalmente las poblaciones son inabarcables puesto que son infinitas, o en el mejor de los casos cuasi-infinitas, lo cual nos deja como estábamos.

Los parámetros poblacionales caracterizan y describen las poblaciones. Son equivalentes a los estadísticos o estadígrafos en las muestras. Un estadístico es una función de la muestra, esto es, depende sola y exclusivamente de nuestra muestra. Varía y está sometido al error (variabilidad) del muestreo. Los parámetros no varían, son constantes y además desconocidos. Contienen las características de la población. En una población cuya distribución es conocida pero desconocemos algún parámetro, podemos estimar dicho parámetro a partir de una muestra representativa.

La inferencia estadística se ocupa, entre otras cuestiones, de los procedimientos de estimación de parámetros desconocidos de la distribución de una variable aleatoria o de la población, a partir de la información suministrada por una muestra de tamaño reducido, extraída al azar. La estimación de parámetros por intervalos, permite construir un intervalo que contendrá el parámetro a estimar con una confianza fijada a priori por el experimentador.

El objetivo más importante de la Estadística es obtener una inferencia con respecto a la población basándose en la información contenida en una muestra. Como las poblaciones se describen mediante medidas numéricas denominadas parámetros, el objetivo de la mayoría de las investigaciones estadísticas es deducir una inferencia con respecto a uno o más parámetros de la población.

Se han estudiado, hasta el momento, las nociones fundamentales de distribución de probabilidades; se está en condiciones, entonces, de tratar los métodos de inferencia estadística, los cuales comprenden los procedimientos para estimar parámetros de poblaciones y probar (contrastar) si una afirmación provisional sobre un parámetro poblacional se ve apoyada o desaprobada ante la evidencia de la muestra.

Hablando en general, hay dos tipos de inferencia: la deductiva y la inductiva. Una inferencia deductiva es un juicio o generalización que se basa en un razonamiento o proceso dialéctico a priori.

Por ejemplo, se supone que dos monedas están perfectamente equilibradas y que entonces la probabilidad de cada una de caer "cara" es = 0,5 (premisa). La media o número esperado de "caras" en la jugada de las monedas deber ser 1 (conclusión). Si las premisas son ciertas, las conclusiones no pueden ser falsas.

Una inferencia inductiva, por otra parte, es un juicio o generalización derivado de observaciones empíricas o experimentales; la conclusión sobre el número promedio de "caras" con base en los resultados de una muestra de prueba. Si los resultados de las pruebas son diferentes, la conclusión también será diferente. No se requiere una suposición a priori sobre la naturaleza de las monedas. La inferencia estadística es primordialmente de naturaleza inductiva y llega a generalizaciones respecto de las características de una población al valerse de observaciones empíricas de la muestra.

Es muy probable que una estadística muestral sea diferente del parámetro de la población y sólo por coincidencia sería el uno exactamente igual al otro. La diferencia entre el valor de una estadística muestral y el correspondiente parámetro de la población se suele llamar error de estimación. Sólo se sabría cuál es el error si se conociera el parámetro poblacional, pero éste por lo general se desconoce.

La única manera de tener alguna certeza al respecto es hacer todas las observaciones posibles del total de la población en la mayoría de las aplicaciones prácticas, lo cual, desde luego, es imposible o impracticable.

Y en efecto, la razón de ser de la inferencia estadística es la falta de conocimientos acerca de las características de la población. Pero que tales características se desconozcan no impide el que se actúe.

(2)

Las inferencias estadísticas se hacen por posibilidades o probabilidades. De la media de la muestra se hacen inferencias sobre la media de la población. No se sabe exactamente cuál es la diferencia entre estas dos medias, ya que la última es desconocida en la mayoría de los casos. No obstante, si se sabe que es más bien poca la probabilidad de que esta diferencia sea mayor que, por ejemplo, tres a aún dos errores estándares.

Los problemas que se tratan en la inferencia estadística se dividen generalmente en dos clases: los problemas de estimación y los de prueba de hipótesis. Como al estimar un parámetro poblacional desconocido se suele hacer una afirmación o juicio este último ofrece solamente una estimación. Es un valor particular obtenido de observaciones de la muestra. No hay que confundir este concepto con el de estimador, que se refiere a la regla o método de estimar un parámetro poblacional. Por ejemplo, se dice que X es un estimador de porque la media muestral proporciona un método para estimar la media de la población. Un estimador es por naturaleza un estadístico y como tal tiene una distribución. El procedimiento mediante el cual se llega a la obtención y se analizan los estimadores se llama estimación estadística, que a su vez se divide en estimación puntual y estimación por intervalos. En una población cuya distribución es conocida pero desconocemos algún parámetro, podemos estimar dicho parámetro a partir de una muestra representativa.

Uno de los principales objetivos de la estadística inferencial es estimar parámetros poblacionales.

Desde el punto de vista matemático, los parámetros son valores que definen la forma y localización de un modelo probabilístico. Los parámetros poblacionales son constantes que caracterizan una población. Estos parámetros pueden ser de ubicación (como la media, mediana, proporción) o de dispersión (como la varianza o coeficiente de variación). Los parámetros se estiman mediante el muestreo de la población. Los valores que se calculan a partir de muestras para estimar parametros se llaman estimadores. Los estimadores se calculan mediante reglas matemáticas (fórmulas) a partir de los elementos de la muestra. Por ejemplo, la media muestral, un estimador de la media poblacional se calcula como:

La selección de elementos en una muestra se puede hacer de distintas formas, El muestreo aleatorio es la selección al azar de los elementos que constituyen una población. El muestreo puede ser sin reemplazo, en este caso, los elementos que se extraen no son devueltos. El muestreo con reemplazo ocurre cuando el elemento extraído es devuelto a la población. En el caso de que el tamaño de la población sea muy grande, el muestreo sin reemplazo no afecta las estimaciones, de lo contrario debe considerarse el efecto de la extracción de los elementos de la población. La selección y extracción aleatoria de los elementos de la población para realizar inferencias sobre atributos poblacionales es necesaria para evitar sesgos, lograr independencia entre las observaciones y mantener objetividad en las inferencias realizadas. Puesto que los elementos de la muestra varían de manera impredecible (si la extracción es aleatoria), los estimadores también varían. Por lo tanto, los estimadores son variables aleatorias.

Para la estimación de los estadísticos de posición se toma como base el cálculo combinatorio y permutacional. Se utilizan fundamentalmente las técnicas de remuestreo, Bootstrap y Jackknife. Estas técnicas no han sido suficientemente desarrolladas y utilizadas porque históricamente los economistas (padres de los estadistas) empleaban las sumatorias y la medias y nunca las medidas de posición, medianas o cuartiles. Esto es lógico cuando hablamos de dinero.

La estimación de parámetros puede ocurrir de dos formas: a) Estimación puntual, la cual es la estimación del valor del parámetro y b) Estimación por intervalo, en este caso se construye un intervalo probabilístico que expresa la probabilidad de que el parámetro se encuentre dentro de dicho intervalo con cierto nivel de confiabilidad. Se recomienda que en la presentación de estimaciones puntuales siempre se asocie su variabilidad, por ejemplo, en el caso de la media muestral, es recomendable presentar también el error estándar y tamaño de muestra

Un estimador es un valor que puede calcularse a partir de los datos muestrales y que proporciona información sobre el valor del parámetro. Por ejemplo la media muestral es un estimador de la media poblacional, la proporción observada en la muestra es un estimador de la proporción en la población.

(3)

Una estimación es puntual cuando se obtiene un sólo valor para el parámetro. Los estimadores más probables en este caso son los estadísticos obtenidos en la muestra, aunque es necesario cuantificar el riesgo que se asume al considerarlos. Recordemos que la distribución muestral indica la distribución de los valores que tomará el estimador al seleccionar distintas muestras de la población. Las dos medidas fundamentales de esta distribución son la media que indica el valor promedio del estimador y la desviación típica, también denominada error típico de estimación, que indica la desviación promedio que podemos esperar entre el estimador y el valor del parámetro.

Más útil es la estimación por intervalos en la que calculamos dos valores entre los que se encontrará el parámetro, con un nivel de confianza fijado de antemano.

Llamamos Intervalo de confianza al intervalo que con un cierto nivel de confianza, contiene al parámetro que se está estimando.

Nivel de confianza es la "probabilidad" de que el intervalo calculado contenga al verdadero valor del parámetro. Se indica por 1 habitualmente se da en porcentaje (1- )100%. Hablamos de nivel de confianza y no de probabilidad ya que una vez extraída la muestra, el intervalo de confianza contendrá al verdadero valor del parámetro o no, lo que sabemos es que si repitiésemos el proceso con muchas muestras podríamos afirmar que el (1- )% de los intervalos así construidos contendría al verdadero valor del parámetro. Por lo general los nivele de confianza más utilizados son: 99, 95 y 90 %, a estos se les denominan coeficientes de confianza: es el nivel de confianza que se tiene en el que el intervalo contenga el valor desconocido del parámetro; estos son simplemente convencionales.

Un intervalo de confianza tiene un límite inferior de confianza (LIC) y un límite superior de confianza (LSC). Esos limites se encuentran calculando primero la media muestral, X . Luego se suma una cierta cantidad a X para obtener el LSC y la misma cantidad se resta a X para obtener el LIC, estos valores que se suman y restan a la media muestral se les denominan errores de estimación.

Confianza e Intervalos de confianza

La estimación de parámetros mediante un solo valor se conoce como estimación puntual. Es bastante arriesgada puesto que no conocemos ni la imprecisión ni se establece el grado de confianza que nos merece el resultado. Estos dos inconvenientes se obvian con la estimación por intervalos confidenciales. Por un lado proporcionan un valor de la imprecisión dado por la longitud del intervalo de confianza. Por otro proporcionan un valor de la fiabilidad que nos debería merecer nuestra estimación, o nivel de confianza.

Afortunadamente algo tan sutil como la confianza se puede cuantificar, y no sólo eso sino que se mueve en unos límites tan cómodos para el pensamiento como son entre el cero y el cien por ciento.

Por convenio, y nadie parece en desacuerdo, para la mayoría de las ocasiones una confianza del 95%

parece suficiente. Este es el valor que gobierna la longitud del intervalo de confianza.

¿Como se interpreta una confianza del 95%?. Si llevamos a cabo un experimento 100 veces obtendríamos 100 distribuciones muestrales de datos y 100 intervalos de confianza. De estos 100 intervalos, 95 de ellos cubrirían el valor del verdadero parámetro poblacional. Desgraciada o afortunadamente, nosotros solo realizamos el experimento una sola vez. Con lo que nunca sabremos si nuestro intervalo es uno de esos 95 que contienen el parámetro de estudio.

Técnicamente, aunque esto suene a una sofisticación innecesaria, no podemos asociar el concepto de nivel de confianza con el concepto de probabilidad. Así no se puede establecer que tenemos una probabilidad del 95% de que el parámetro buscado este dentro de nuestro intervalo.

Las técnicas de estimación de parámetros poblacionales se incluyen dentro de la estadística inferencial.

Un Teorema Importante

Todos los parámetros poblacionales pueden ser estimados a partir de técnicas de estimación. La mayoría de los estimadores se basan en la distribución de los estadísticos en el muestreo y toman como base algunas propiedades deseables del teorema del límite central. Este teorema tiene unas propiedades tan deseables que es la base de la estadística analítica. Viene a decir fundamentalmente dos cosas:

1.- Que las muestras individualmente son diferentes de las poblaciones pero en conjunto son muy parecidas

(4)

2. Que las muestras no son gobernadas por el azar, sino que en conjunto siguen, no importa de lo que estemos tratando, las leyes universales de las funciones teóricas de probabilidad. La función de probabilidad normal rige, en la mayoría de las ocasiones cuando las muestras son mayores de 30, estas distribuciones muestrales.

Otro Enfoque

Para la estimación de los estadísticos de posición se toma como base el cálculo combinatorio y permutacional. Se utilizan fundamentalmente las técnicas de remuestreo, Bootstrap y Jackknife. Estas técnicas no han sido suficientemente desarrolladas y utilizadas porque históricamente los economistas (padres de los estadistas) empleaban las sumatorias y la medias y nunca las medidas de posición, medianas o cuartiles. Esto es lógico cuando hablamos de dinero.

La estimación de parámetros puede ocurrir de dos formas: a) Estimación puntual, la cual es la estimación del valor del parámetro y b) Estimación por intervalo, en este caso se construye un intervalo probabilístico que expresa la probabilidad de que el parámetro se encuentre dentro de dicho intervalo con cierto nivel de confiabilidad. Se recomienda que en la presentación de estimaciones puntuales siempre se asocie su variabilidad, por ejemplo, en el caso de la media muestral, es recomendable presentar también el error estándar y tamaño de muestra.

ESTIMACIÓN DE PARÁMETROS

La teoría clásica de la Inferencia Estadística trata de los métodos por los cuales se selecciona una muestra de una población y, basándose en las pruebas de las muestras, se trata de:

* Estimar el valor de un parámetro desconocido, por ejemplo θ.

* Verificar si θ es o no igual a cierto valor predeterminado, por ejemplo θ0.

El primero de estos dos procedimientos, de inferir de una muestra a una población, se llama estimación de un parámetro; el segundo, prueba de una hipótesis acerca de un parámetro. Dentro del primer procedimiento, la estimación de un parámetro puede tener por resultado un solo punto (estimación puntual), o un intervalo dentro del cual exista cierta probabilidad de encontrarlo (estimación por intervalos).

Un estimador puntual es un único punto o valor, el cual se considera va a estimar a un parámetro. La expresión E( ) = sugiere que el único valor de es un estimador puntual insesgado o no viciado de

.

Un estimador por intervalo se construye sobre el concepto de un estimador puntual, pero además, proporciona algún grado de exactitud del estimador. Como el término lo sugiere, un estimador por intervalo es un rango o banda dentro de la cual el parámetro se supone va a caer.

Las técnicas estadísticas de estimación intentan conocer el valor de estos parámetros. La media de edad de un conjunto de personas es fácilmente calculable y no está sometido a ninguna clase de imprecisión.

La media de edad de la población de donde proviene esa muestra es desconocida. Si la muestra cumple la condición de ser aleatoria, es posible intentar calcular la media poblacional. El cálculo de los parámetros se basa en la información suministrada por la muestra.

En el proceso de ir de la información de la muestra (estadísticos) al estimado de los parámetros poblacionales ocurren dos cosas, una buena y otra mala:

a.- Ganamos en generalización. Esto es, pasamos de la parte al todo. De las muestras a las poblaciones b.- Perdemos precisión o lo que es lo mismo, ganamos en imprecisión. La estimación de parámetros poblacionales se realiza construyendo intervalos (segmentos) que suponemos cubren o contienen el parámetro buscado.

ESTIMACIÓN CON Y SIN SESGO

Si la media de las distribuciones de muestreo de un estadístico es igual que la del correspondiente parámetro de la población, el estadístico se llama un estimador sin sesgo del parámetro; si no, se

(5)

denomina un estimador sesgado. Los correspondiente valores de tales estadísticos se llaman estimaciones sin sesgo y sesgadas, respectivamente.

ESTIMACIÓN EFICIENTE

Si las distribuciones de muestreo de los estadísticos tienen las mismas medias (o esperanza matemática), el de menor varianza se llama un estimador eficiente de la media, mientras que el otro se llama un estimador ineficiente. Los valores correspondientes de esos estadísticos se llaman estimación eficiente e estimación ineficiente, respectivamente. Si consideramos todos los posibles estadísticos cuyas distribuciones de muestreo tienen la misma media, aquel de varianza mínima se llama a veces el estimador de máxima eficiencia, o sea el mejor estimador.

ESTIMACIÓN - GENERALIDADES

El uso principal de la inferencia estadística en la investigación empírica, es lograr conocimiento de una gran clase de unidades estadísticas (seres humanos, plantas, parcelas de tierra), de un número relativamente pequeño de los mismos elementos.

Los métodos de inferencia estadística emplean el razonamiento inductivo, razonamiento de lo particular a lo general y de lo observado a lo no observado.

Cualquier colección o agregación grande de cosas que deseamos estudiar o de las cuales deseamos hacer inferencias, se llama población. El término población tiene más significado cuando se lo junta con la definición de muestra de una población: una muestra es una parte o subconjunto de una población. Una muestra de n elementos de la población de N elementos, debería ser seleccionada de forma tal que las características de la población puedan ser estimadas con un margen de error conocido.

Los valores de varias medidas descriptivas calculadas para las poblaciones, se llaman parámetros.

Para las muestras, estas mismas medidas descriptivas se llaman estadísticos o estadígrafos.

Matemáticamente, podemos describir muestras y poblaciones al emplear mediciones como la media, mediana, moda y desviación estándar. Cuando estos términos describen las características de una muestra se denominan estadísticos o estadígrafos y cuando describen las de una población se denominan parámetros, con lo que podemos decir que:" Un estadístico es una característica de una muestra y un parámetro es una característica de una población." Un parámetro describe una población de la misma manera que un estadígrafo describe a una muestra. Los investigadores de la estadística usan la palabra población para referirse no sólo a personas sino a todo los elementos que han sido escogidos para su estudio; mientras que emplean la palabra muestra par describir una porción escogida de la población. La notación utilizada empleada para denotar estadísticos de muestra es de letras latinas minúsculas y para representar parámetros de una población se utilizan letras griegas o latinas mayúsculas.

MUESTRA POBLACIÓN

ESTADÍSTICO PARÁMETRO

Media Aritmética

Variancia 2

Desvío Estándar S

Coeficiente de

Correlación

r

Tamaño n 

Un estadígrafo o estadístico calculado a partir de una muestra es un estimador del parámetro en la población. Una estimación es alguna función de los resultados de una muestra que produce un valor, llamado estimador. El estimador da alguna información respecto al parámetro. Por ejemplo, la media de la muestra, , es un estimador de la media en la población. Las poblaciones pueden ser infinitas o finitas. Para la mayoría de los propósitos de investigación, se supone que las poblaciones son

(6)

infinitas, no finitas, en tamaño, las cuales son algo artificial o imaginario. Una población finita puede ser extremadamente grande. Es posible concebir un proceso de conteo de los elementos de la población, el cual puede ser computado; luego la población es técnicamente finita. Afortunadamente no es necesario crear problemas en cuanto a la distinción entre poblaciones infinitas y finitas.

El método usado para seleccionar la muestra es muy importante al juzgar la validez de la inferencia que se hace de la nuestra a la población. Para que una muestra sirva adecuadamente como base para obtener estimadores de parámetros poblacionales, debe ser representativa de la población. El muestreo al azar de una población producirá muestras que "a la larga" son representativas de la población. Si una muestra se extrae aleatoriamente, es representativa de la población en todos los aspectos, esto es, el estadígrafo diferirá del parámetro solo por azar. La habilidad para estimar el grado de error debido al azar (error de muestreo), es un rasgo importante de una muestra al azar.

PROPIEDADES DE UN BUEN ESTIMADOR

Para poder utilizar la información que se tenga de la mejor manera posible, se necesita identificar los estadígrafos que sean buenos estimadores, cuyas propiedades son:

Insesgabilidad: , estimador de es una variable aleatoria y por lo tanto tiene una distribución de probabilidad con una cierta media y variancia. Se puede definir estimador insesgado diciendo: Si se utiliza un estadístico muestral para estimar el parámetro de la población , se dice que es un estimador insesgado de , si la esperanza matemática de coincide con el parámetro que desea estimar.

En símbolos: es insesgado E( )

O sea que es de esperar que si se toman muchas muestras de igual tamaño partiendo de la misma distribución y si de cada una se obtiene un valor , la media de todos los valores de ha de estar muy cerca de .

* La media muestral es un estimador insesgado de la media poblacional, o sea que E( ) =

* La variancia muestral, ¿es un estimador insesgado de la variancia poblacional?

La respuesta depende de como se defina la variancia muestral.

Si

n X S2 (xi 2)2

, entonces S² es un estimador sesgado de 2 pues . Mas aún,

2

2 1

)

(

n S n

E . Pero el sesgo se puede corregir alterando la definición de variancia muestral.

En efecto, si

1 )

( 2

*2

n

X

S xi es la variancia muestral corregida, entonces (E) S*2 2y S² es un estimador insesgado de 2.

Eficiencia: si se utilizan dos estadísticos o estadígrafos como estimadores del mismo parámetro, entonces aquel cuya distribución muestral tenga menor variancia, es un estimador más eficiente o más eficaz que el otro. Es decir: es eficiente mínima.

Consistencia: Si es un estimador muestral calculado a partir de una muestra de tamaño n y si es el parámetro de población que se va a estimar, entonces es un estimador consistente de si la probabilidad de que el valor absoluto de la diferencia entre y su esperanza iguale o supere a e (error admitido que tiende a cero, o sea que es tan pequeño como se quiera), tienda a cero cuando el número de elementos de la muestra tienda a infinito. Es decir, la consistencia se refiere a que al aumentar el tamaño de muestra, el estimador se aproxima al parámetro.

Suficiencia: La suficiencia se refiere a que el estimador haga uso de toda la información de la muestra para estimar al parámetro. La media muestral hace uso de todas las observaciones. Un estimador suficiente del parámetro es aquel que agota toda la información pertinente sobre que se puede disponer en la muestra. Por ejemplo, si se toma una muestra de n = 30 valores con el fin de estimar , pueden utilizarse como estimadores la primera, la décimo quinta o la última observación, o el promedio entre la primera y la quinta observación. Pero estos estimadores no son suficientes pues no

(7)

contienen toda la información disponible de la muestra. La media aritmética calculada con las 30 observaciones sí lo es pues tiene en cuenta todas las observaciones. En definitiva, por ejemplo la media aritmética muestral y la forma corregida de la variancia muestral, son estadísticas que satisfacen los criterios o propiedades de "buenos" estimadores.

Evaluación de la bondad de un Estimador

Para evaluar si un estadístico es mejor estimador que otro, se evalúan cuatro criterios:

Imparcialidad: Se dice que un estadístico es un estimador imparcial si, en promedio, tiende a tomar valores que están por encima del parámetro de la población que se está estimando con la misma frecuencia y la misma extensión con la que tiende a asumir valores por debajo del parámetro que se está estimando. Se refiere al hecho de que una media de muestra es un estimador no sesgado de una media de población, porque la media de distribución de muestreo de las medias de muestras tomadas de la misma población es igual a la media de la población misma. Podemos decir que una estadística es un estimador imparcial (o no sesgado) si, en promedio, tiende a tomar valores que están por encima del parámetro de la población y la misma extensión con la que tiende a asumir valores por debajo del parámetro de población que se está estimando.

Eficiencia: Esta característica se refiere al tamaño del error estándar del estadístico, mientras más pequeño sea el error estándar, en más eficiente el estimador. Se refiere al tamaño del error estándar de la estadística. Si comparamos dos estadísticas de una muestra del mismo tamaño y tratamos de decidir cuál de ellas es un estimador más eficiente, escogeríamos la estadística que tuviera el menor error estándar o la menor desviación estándar de la distribución de muestreo. Tiene sentido pensar que un estimador con un error estándar menor (con menos desviación) tendrá una mayor oportunidad de producir una estimación más cercana al parámetro de población que se está considerando.

Coherencia: Un estadístico es un estimador coherente de un parámetro de población si al aumentar el tamaño de la muestra, se tiene casi la certeza de que el valor de la estadística se aproxima bastante al valor del parámetro de la población. Si un estimador es coherente, se vuelve más confiable si tenemos tamaños de muestras más grandes.

Suficiencia: Un estimador es suficiente si utiliza una cantidad de la información contenida en la muestra que ningún otro estimador podría extraer información adicional de la muestra sobre el parámetro de la población.

ESTIMACIÓN POR INTERVALOS DE CONFIANZA

Lo dicho hasta ahora se refiere a una estimación puntual, es decir, estimar un parámetro a través de un único valor. Esta estimación no es muy conveniente pues con ella no se puede determinar el error de muestreo, ni la precisión de la estimación, ni la confianza que merece tal estimación. Existen otros métodos para estimar parámetros poblacionales que son mucho más precisos. Por ejemplo:

* Método de los mínimos cuadrados.

* Método de los momentos.

* Método de la máxima verosimilitud se basa en el principio de que generalmente ocurre lo más probable.

* Método de estimación por intervalos de confianza, este será el que se desarrollara en este curso.

El procedimiento de determinar un intervalo (a, b) que comprenda un parámetro de población con cierta probabilidad 1 , se llama estimación por intervalos. Se verán los casos paramétricos, es decir, aquellos en los que se tiene conocimiento del tipo de distribución de la población (Binomial, Normal, etc.).

DISTRIBUCIONES MUESTRALES

Este concepto se relaciona con la idea de variación o fluctuaciones al azar, para lo cual todas las posibles muestras de un tamaño N en una población dada (con o sin reposición). Para cada muestra, podemos calcular un estadístico (tal como la media o la desviación típica) que variará de muestra a muestra. De esta manera obtendremos una distribución del estadístico que se llama su distribución de muestreo. Si, por ejemplo, el estadístico utilizado es la media muestral, entonces la distribución se

(8)

llama la distribución de muestreo de medias, o, distribución de muestreo de la media. Análogamente, podríamos tener distribuciones de muestreo de la desviación típica, de la varianza, de la mediana, de las proporciones, etc. Para cada distribución de muestreo podemos calcular la media, la desviación típica, etc. Así pues, podremos hablar de la media y la desviación típica de la distribución de muestreo de medias, etc.

DISTRIBUCIÓN DE MUESTREO DE MEDIAS

Es una distribución probabilística que consta de una lista de todas las medias muestrales posibles de un tamaño dado de una población y la probabilidad de ocurrencia asociada con cada media muestral. Si tomamos varias muestras de una población con el objetivo de obtener la media poblacional, observaríamos que cada una de ellas posiblemente nos dan diferentes valores de dicha media. Si se organizaran las medias de todas las muestras posibles de un tamaño específico tomadas de una población se obtendría lo que se conoce como una distribución muestral de medias.

Para muestras de tamaño N, sin reposición, de una población finita de tamaño Np>N tenemos,

 X y

1

P

X NP

N N n

Si la población es infinita o si el muestreo es con reposición, los resultados anteriores se reducen a:

 X y

X n

 

Para valores grandes de N (N30), la distribución de muestreo de medias, es aproximadamente normal con media X y desviación típica X , independientemente de la población (en tanto en cuanto la media poblacional y la varianza sean finitas y el tamaño de la población sea al menos doble que el de la muestra). Este resultado para una población infinita es un caso especial del teorema del límite central de teoría avanzada de probabilidades, que afirma que la precisión de la aproximación mejora al crecer N. Esto se indica en ocasiones diciendo que la distribución de muestreo es asintóticamente normal.

Debemos anotar que las características de la población serán las mismas que tendrán las diferentes muestras de la misma:

Si la población no tiene distribución normal, la distribución muestral de medias de cualquier manera tenderá a aproximarse a la forma normal.

La dispersión en la distribución de las medias muestrales es siempre menor que la dispersión de la población y será mucho más pequeña mientras más grande sea el tamaño de la muestra.

ESTIMACIONES DE INTERVALO DE CONFIANZA PARA PARÁMETROS DE POBLACIÓN Sean x la media y la desviación típica (error típico) de la distribución de muestreo de un estadístico S.

Entonces, si la distribución de S es aproximadamente normal (que como hemos visto es cierto para mucho estadísticos si el tamaño de la muestra N30), podemos esperar hallar un estadístico real S que esté en los intervalos s -s a s +s, s -2s a s+s, o s -s a s +3s alrededor del 68.27 %, 95,45 % y 99.73 % de la curva normal, respectivamente.

Equivalentemente, podemos esperar hallar (o sea, podemos estar confiados en encontrar)s en los intervalos S - s a S + s, S - 2s a S + 2s, o S - 3s a S + 3s alrededor del 68.27%, 95.45% y 99.73% , de la curva normal, respectivamente. Por esta razón, llamamos a ese respectivos intervalos los intervalos de confianza 68.27%, 95.45% y 99.73% para estimar s. Los números extremoso de estos intervalos se llaman entonces los límites de confianza 68.27%, 95.45% y 99.73%.

Análogamente, S ± 1.96s. y S ± 2.58s son los límites de confianza 95% y 99% (o sea 0.95 y 0.99) para S. El porcentaje de confianza se suele llamar nivel de confianza. Los números 1.96 y 2.58, etc. en los límites de confianza se llaman coeficientes de confianza o valores críticos, y se denotan por zc. De los niveles de confianza que no aparecen en la tabla, los valores de zc se pueden encontrar gracias a las tablas de áreas bajo la curva normal.

NIVELES DE CONFIANZA

(9)

NIVEL DE CONFIANZA

99.73% 99% 98% 96% 95.45% 95% 90% 80% 68.27% 50%

ZC

3.00 2.58 2.33 2.05 2.00 1.96 1.645 1.28 1.00 0.6745

Una normal de media  y desviación  se transforma en una z. De acuerdo a las siguientes figuras.

Llamando z al valor de una variable normal tipificada que deja a su derecha un área bajo la curva de

, es decir, que la probabilidad que la variable sea mayor que ese valor es  (estos son los valores que ofrece la tabla de la normal). Podremos construir intervalos de la forma 1 2 2

Z

n

Z X

, para

los que la probabilidad es 1 - .

ERRORES TÍPICOS:

La desviación típica de una una distribución de muestreo de un estadístico se suele llamar su error típico. En la siguiente tabla, se presentan errores típicos de distribución de muestreo para varios estadísticos bajo las condiciones de muestreo aleatorio de una población infinita (o muy grande) o de muestreo con reposición de una finita. También recoge observaciones particulares que garantizan la validez de estos resultados y otras notas pertinentes.

Se debe tomar en cuenta que si el tamaño de la muestra es lo bastante grande, las distribuciones de muestreo son normales o casi normales. Por ellos, los métodos se conocen como métodos de grandes muestras. Cuando N30, las muestras se llaman pequeñas. Cuando los parámetros de la población, tales comoro, son desconocidos, pueden ser estimados con precisión por sus correspondientes estadísticos muestrales, a saber, s, X , y r, si las muestras son suficientemente grandes.

DISTRIBUCIÓN ERROR TÍPICO OBSERVACIONES

(10)

DE MUESTREO

Medias

Esto es cierto para muestras grandes y pequeñas. La distribución muestral de medias es casi normal para 30, incluso cuando la población no es normal.

x , la media de la población, en todos lo casos.

Proporciones

La nota precedente para las medias se aplica

aquí también

p p

, en todos los casos.

Desviaciones Típicas (1)

Para 100, la distribución muestral de s es

casi normal.

s viene dada por (1) sólo si la población es normal (o aproximadamente normal). Si la población no es normal, se puede usar (2).

Note, que (2) se reduce a (1) cuando 2=2 y

4=4, lo cual es cierto para poblaciones normales.

Para 100, s= muy aproximadamente (2)

Varianzas

(1)

Las observaciones hechas sobre la desviación típica son aplicables también aquí. Debemos notar que (2) da (1) en el caso de poblaciones normales.

s2=2(N-1)/N, que es casi igual a 2 para N grandes.

(2)

Intervalo de Confianza para μ; con σ Conocida

Si X es la media de una muestra aleatoria de tamaño n de una población con varianza conocida 2, un intervalo de confianza de (1)100% para esta dado por

Z n n X

Z

X

2 2

,

donde Z 2 es el valor de z que delimita un area de 2 a su derecha. Este teorema se cumple en el caso de muestras de tamaño n ≥ 30.

Es la probabilidad de que el intervalo no incluya al verdadero valor del parámetro. 1 es el

nivel de confianza, es una medida de la fiabilidad de la estimación. Por ejemplo, si se toma = 10%, entonces 1 = 90% y se dice que se tiene un intervalo de confianza del 90% y que la probabilidad de que el intervalo contenga al verdadero valor del parámetro es del 90%. Es decir, que si repetidamente se muestra y se construye tal intervalo una y otra vez, 90 de cada 100 de estos intervalos, contendrá al parámetro y 10 de ellos no. Se puede pensar que 1 significa certeza, seguridad y

significa riesgo. La seguridad menos el riesgo, es decir 1 da, por lo tanto, el coeficiente de confianza de nuestras afirmaciones.

En general, es posible construir intervalos de confianza para cualquier coeficiente de confianza

% 100 ) 1

( para basado en una muestra grande

Z n

X

 2 , es decir:

Z n

X

 2 , es el límite inferior del intervalo de confianza y

Z n

X

 2 , el límite superior del intervalo de confianza.

(11)

Una vez determinado el intervalo, es decir, una vez calculados numéricamente los limites inferiores y superiores, ya no debe hablarse en términos de confiabilidad ni en términos probabilísticos, pues la situación pasa a ser completamente determinística. De tal manera, asociado a un intervalo de confianza ya calculado, se tiene una probabilidad 0 ó 1 de que contenga al parámetro a estimar y no hay otra opción, ya que lo contiene o no lo contiene. Resumiendo, los extremos del intervalo son variables aleatorias, mientras que el parámetro a determinar es constante.

Muestras diferentes originaran valores distintos de X y, consecuentemente originaran diferentes estimaciones por intervalos del parámetro . Mientras mayor sea el valor que se elija para Z 2, más amplio serán los intervalos y abra mayor confianza de que la muestra seleccionada en particular dará un intervalo que contenga al parámetro desconocido .

Figura: Intervalo de confianza para la media.

En general, los pasos a seguir para estimar un parámetro por el método de los intervalos de confianza, son:

* Fijar el coeficiente de confianza que se desea en la estimación.

* Extraer la muestra y calcular el o los estadísticos necesarios.

* Determinar la distribución en el muestreo que tiene el estadístico empleado.

INTERVALO DE CONFIANZA PARA LA MEDIA POBLACIONAL CASO 1 Con  conocido:

Sea X..,N(,) donde  es desconocido y  conocido.

Sea x1, x2, ... , xn una muestra aleatoria de la variable aleatoria X y sea la media muestral.

Se sabe que 



N n

X.., , independientemente del valor de n, por el teorema central del límite.

) 1 , 0 ( , N n

Z X

Luego, tipificando:

2 1 2 Z

Z

(12)

Se plantea: entonces:





2 2 1

Z n n X

Z X P

Observaciones:

Si las muestras se toman sin reposición de una población finita de tamaño N, debe emplearse el factor de corrección por finitud y el intervalo será:





; 1

1 2

2 n

n N Z n

n X n N Z n

X

Si la población es sólo aproximadamente normal, la igualdad sigue siendo válida en forma aproximada.

Figura: La distribución N (0,1) y el intervalo más pequeño posible cuya probabilidad es 1. Por simetría, los cuartiles Z 2 y Z12 sólo difieren en el signo.

Ejemplo 1: Un grupo de investigadores en Medicina desea estimar el cambio medio de presión sanguínea por paciente en un sanatorio. Se ha seleccionado una muestra al azar de 30 pacientes y se halló que puls/seg. Los investigadores saben que la desviación estándar de los cambios de presión sanguínea para todos los pacientes es σ = 3 puls/seg según estudios anteriores. Ellos desean estimar el cambio medio de la presión sanguínea por paciente con un intervalo del 95% de confianza, suponiendo que la variable aleatoria "cambios de presión sanguínea" tiene asociada una distribución normal de probabilidad.

Respuesta:

X = cambio en la presión sanguínea por paciente del sanatorio (en pulsaciones por segundo) n = 30, ,  = 3, 1 -  = 0.95

Por tabla: Z 2 1.96 Entonces:

(13)

Límite inferior (LIC) = 5 1,073 3.9

30 96 3 . 1

5

Límite superior (LSC) = 5 1,073 6.1 30

96 3 . 1

5

Por lo tanto resulta el Intervalo del 95% de confianza para la media: (3,9; 6,1). Entonces, se puede afirmar que el cambio medio en la presión sanguínea por paciente, pertenece al intervalo (3,9; 6,1) pulsaciones, con un nivel de confianza del 95%.

En cuanto al tamaño óptimo de muestra,

n e Z

determina el error máximo admitido de muestreo e indica la precisión de la estimación. Lógicamente se pretende que sea lo más pequeño posible. Por otra parte, (1 - ) es el coeficiente de confianza y se pretende que sea lo más grande posible. Pero

2

Z depende del valor de  y al hacer mayor el coeficiente de confianza (1 - ), el valor Z 2 será mayor y por lo tanto el error aumentará. Esto se puede regular aumentando el tamaño de la muestra con lo que el error disminuirá.

Para el ejemplo 1, e 1,073puls/seg

30 96 3 .

1

con un nivel de confianza del 95%.

Si se utiliza X como una estimación de , se puede tener una confianza de (1)100% de que el error será menor que una cantidad especificada e cuando el tamaño de la muestra es

2 2 2

2 2 2 2

2* * * *

e

n Z e

n Z e n Z n

e Z

.

Si se desea elevar el nivel de confianza a 99% en el problema anterior, pero sin aumentar el error e de estimación, el tamaño de la muestra debería ser:

2* 2

e n Z

51.8 52.0

) 073 , 1 (

3 ) 575 , 2 (

, ..;

073 , 1 ..;

3 ..;

575 , 2

2 2 2 2

n n

Entonces e

Z

Es decir, que se debe tomar una muestra de aproximadamente 52 pacientes en lugar de 30.

Por el contrario, si el investigador deseara un error de estimación menor, por ejemplo 1 puls/seg, manteniendo el nivel de confianza en 95%, el tamaño de la muestra requerido será:

34.6 35.0

) 1 (

) 3 ( ) 96 , 1 (

2 2

2

n Pacientes.

EJEMPLO 1A.-Para una muestra de 81 habitantes de cierta población se obtuvo una estatura media de 167 cm. Por estudios anteriores se sabe que la desviación típica de la altura de la población es de 8 cm.

Construye un intervalo de confianza para la estatura media de la población al 95%.

Datos: 8,....n81,...Z 2 1.96(95%),...X 167





2 2 1

Z n n X

Z X P

) 74 , 168

;..

26 , 165 ( 74 . 1 167 74

. 1 167

89 . 0 96 . 1 167 89

. 0 96 . 1 81 167

96 8 . 1 81 167

96 8 . 1 167

x x

Referencias

Documento similar

Este documento destaca nuestra visión colectiva sobre la Transición Energética Justa, tal como debatieron las/os participantes y se expresó en los seminarios virtuales de Amigos de

1. LAS GARANTÍAS CONSTITUCIONALES.—2. C) La reforma constitucional de 1994. D) Las tres etapas del amparo argentino. F) Las vías previas al amparo. H) La acción es judicial en

Este parón o bloqueo de las ventas españolas al resto de la Comunidad contrasta sin em- bargo con la evolución interior de ese mismo mercado en cuan- to a la demanda de hortalizas.

Tras establecer un programa de trabajo (en el que se fijaban pre- visiones para las reuniones que se pretendían celebrar los posteriores 10 de julio —actual papel de los

En nuestra opinión, las cuentas anuales de la Entidad Pública Empresarial Red.es correspondientes al ejercicio 2010 representan en todos los aspectos significativos la imagen fiel

En nuestra opinión, las cuentas anuales de la Entidad Pública Empresarial Red.es correspondientes al ejercicio 2012 representan en todos los aspectos

La oferta existente en el Departamento de Santa Ana es variada, en esta zona pueden encontrarse diferentes hoteles, que pueden cubrir las necesidades básicas de un viajero que

Pero para evitar todo riesgo, Olivares organizó un control interno; después de la llegada del cardenal-infante a Flandes en 1634, el mismo marqués de Aytona recibió