• No se han encontrado resultados

LA APROXIMACIÓN BINOMIAL POR LA NORMAL: Una Experiencia de Reflexión Sobre la Práctica

N/A
N/A
Protected

Academic year: 2020

Share "LA APROXIMACIÓN BINOMIAL POR LA NORMAL: Una Experiencia de Reflexión Sobre la Práctica"

Copied!
20
0
0

Texto completo

(1)

Hugo Alvarado Martínez (alvaradomartinez@ucsc.cl) Lidia Retamal Pérez (lretamal@ucsc.cl)

Universidad Católica de la Santísima Concepción (Concepción, Chile)

Recibido: 22/10/2010 Aceptado: 21/11/2010

Resumen

En este trabajo se describe un proceso de reflexión sobre la enseñanza de la estadística a nivel universitario. Para ello se analiza las dificultades de comprensión de la aproximación de la distribución binomial por la normal, surgida de la práctica docente. Como primera etapa se considera un estudio histórico y el análisis de libros de texto como los elementos que configuran e influyen en el problema profesional. Como consecuencia, se plantea un diseño de implementación mediante representaciones de simulación para facilitar la comprensión progresiva y su generalización al estudio del teorema central del límite.

Palabras claves: Estadística, ciclo de Smyth, significado de referencia.

BINOMIAL APPROACH FOR THE NORMAL: An Experience of Reflection on Practice

Abstract

This paper describes a reflection process on the teaching of statistics at university level. It also discusses the difficulties of understanding the binomial approximation of the normal distribution, as a result of the teaching practice. As a first step, a historical study and analysis of textbooks is considered, as well as the elements that shape and influence professional issues. As a result, an implementation design is proposed through simulated representations to facilitate the progressive understanding and generalization to the study of central limit theorem.

Key Words: Statistics, Smyth cycle, meaning of reference. Introducción

Por lo general, existe un alto grado de desmotivación de los estudiantes universitarios en cursos de probabilidad y estadística, que se observan en las diferencias de ritmos de aprendizaje y en que muchos no muestran un trabajo sistemático de estudio clase a clase. Sin embargo, son escasos los análisis acerca de la eficacia de la actuación docente en dichos cursos.

Específicamente, las distribuciones muestrales son un contenido de la estadística que es considerado difícil por los estudiantes, ya que conjuga muchos conceptos asociados, y diversos tipos de lenguaje y representaciones, propiedades, procedimientos y argumentos. En particular, la presentación directa del teorema central del límite en su formulación general, es decir, independientemente de la distribución de las variables que intervienen en su enunciado, conduce a realizar su demostración mediante la función generadora de momentos y a plantear en el aula ejercicios de tipo algebraico sobre el cálculo de probabilidades de la media muestral

(2)

(Alvarado y Batanero, 2007). Esta exposición es limitada, ya que no muestra los conflictos del proceso histórico creativo ni la forma como ha llegado a construirse esta proposición a partir de la suma de variables Bernoulli (Alvarado y Batanero, 2006).

En este trabajo, se profundiza sobre la práctica en la asignatura de estadística, restringida a la lección de la aproximación de la distribución binomial como caso particular de lo que hoy es el teorema central del límite (TCL). Una dificultad de esta aproximación es consensuar cuándo n es suficientemente grande, puesto que la precisión de la aproximación para un valor particular de n depende de la forma de la distribución original y la sensibilidad del parámetro p. La cuestión general a analizar es la siguiente ¿En cuáles condiciones y mediante cuáles funciones o distribuciones de probabilidad pueden aproximarse otras distribuciones, cuando aumentamos progresivamente el valor de ciertos parámetros de las mismas, y, en particular, el tamaño de una muestra?

Con el propósito de plantear un diseño de secuencia didáctica de las distribuciones muestrales, en la Tabla 1 se explicitan de manera esquemática las distintas fases del proceso de reflexión, detectado con base en una situación problemática, siguiendo para ello un modelo de carácter cíclico (Smyth, 1991, ver Figura 1).

Tabla 1. Fases del Proceso de Reflexión

Descripción Identificación de la práctica. ¿Qué hago?

Información Soporte de las prácticas. ¿Qué significado tiene lo que hago? Confrontación Percepción de otras prácticas y teorías

(3)

De acuerdo con Smyth (1991) el ciclo comienza cuando el profesor detecta un problema profesional surgido en el transcurso de su práctica (Flores, 2000), y las diferentes fases suponen, por parte del docente, un esfuerzo de explicitación del problema, así como de reflexión acerca de su práctica. Este trabajo continúa las investigaciones previas de Méndez (1991), delMas, Garfield y Chance (1999) y Tauber, Batanero y Sánchez (2005) sobre la comprensión de la distribución normal, desde el punto de vista de un profesor práctico reflexivo.

Fases de la Experiencia de Reflexión

1. Descripción (¿Qué es lo que hago?)

La experiencia de reflexión comienza cuando se detecta un problema y se realiza un intento de explicitación y delimitación del mismo. A continuación, se destacan los momentos más importantes que se dieron en la fase de descripción del ciclo de reflexión en un curso de estadística de la Universidad Católica de la Santísima Concepción (UCSC). Se le pidió a un grupo de estudiantes de segundo año de ingeniería que intentaran desarrollar la siguiente actividad:

Actividad 1. El departamento de finanza de una empresa ha detectado un 9% de artículos con algún tipo de fallas producidas por sus máquinas. Determine la probabilidad aproximada de obtener entre 2 y 5 artículos defectuosos de una muestra aleatoria de 40 artículos.Comente sobre la calidad de la aproximación, si la probabilidad exacta es de 0.7395.

Se espera que los estudiantes lleven a cabo el siguiente procedimiento de solución: Se define la variable Bernoulli Xi ~ B(p = 0.09) donde: Xi = 1 si el artículo es defectuoso, y 0 si el artículo no es defectuoso. Consideremos una muestra aleatoria X1, X2, …, Xn y definamos

la variable aleatoria S40 = : número de artículos defectuosos en la muestra.

Por lo tanto, la variable suma tiene distribución binomial S40 ~ bin (n = 40, p = 0.09).

Aplicando el teorema de Laplace De Moivre se tiene S40 Normal (np=3.6, np(1-p)=3.276)

Se pide P (2 5 ). El algoritmo de estandarización es el siguiente:

a) P (2 5) P(1.5 5.5) aplicando la corrección por continuidad debido a que se está aproximando una distribución de variable discreta por una variable continua.

b) P(-1.16 1.05) al estandarizar la variable Sn a la distribución normal estándar

c) P(Z -1.16) - P(Z 1.05)

d) 0.876976 – 0.146859 = 0.730117 Uso de la tabla estadística de la distribución normal. Cabe notar que sin usar la corrección por continuidad se obtiene una probabilidad de 0.592034.

e) Calidad de la aproximación: Si la probabilidad exacta es 0.7395, entonces la aproximación es muy buena (se obtuvo un error de 0.009383). Aunque, el criterio del teorema de Laplace

(4)

De Moivre np = 3.6 es bajo, la calidad de estimación la otorga la corrección por continuidad.

Las respuestas a la actividad fueron dadas por 110 estudiantes de la Facultad de ingeniería de la UCSC. En la Tabla 2 se presentan las frecuencias y porcentajes de respuestas a las justificaciones de la Actividad 1.

Tabla 2. Frecuencias y Porcentajes de Respuesta

Frecuencia Porcentaje Justificación algebraica correcta usando corrección de

continuidad

44 40,0

Justificación algebraica correcta sin usar corrección de continuidad

36 32,7

Notación simbólica correcta de aproximación 81 73,6

Uso correcto de tablas estadísticas 81 73,6

Justificación correcta sobre la calidad de la aproximación binomial

03 2,7

No justifica la calidad de aproximación, sólo lo indica Justifica incorrectamente sobre la calidad de aproximación

43 26

39,1 23,6

Con base en las respuestas de los alumnos, se acentúan algunas reflexiones del docente respecto a los momentos de la fase de descripción:

Situación 1. Los alumnos tienen dificultades para calcular y comparar las probabilidades aproximada y exacta cuando están aplicando el teorema de Laplace - De Moivre.

Cuestión 1: ¿Debo detenerme y aclarar las dudas o continúo con el tema de las distribuciones muestrales?

Respuestas:

1.1 Ante una nueva aparición de la dificultad me detengo para ejemplificar el procedimiento algebraico de las operaciones de estandarización de las variables con distribución binomial;

1.2 Permito el uso de la calculadora y tablas estadísticas por ser una herramienta habitual en clase;

1.3 Continúo con las propiedades de las distribuciones muestrales.

Situación 2. Los alumnos en clase siguen declarando errores de procedimiento algebraico y adecuación de uso del teorema central del límite en poblaciones binomiales.

(5)

Respuestas:

2.1 Considero la distribución binomial B(n, p) como suma de variables aleatorias independientes idénticamente distribuidas B(1, p) o variables de Bernoulli;

2.2 Utilizo el teorema central del límite para una muestra grande de tamaño n; 2.3 Acudo a situaciones con dispositivos manipulativos de experimentos binomiales; 2.4 Proporciono actividades fuera de clases con uso del ordenador de modo que aporte

a determinar cuándo utilizar el teorema central del límite.

Situación 3. Observo que dependiendo del tipo de procedimiento algebraico, manipulativo o computacional necesito adaptar las distintas representaciones.

Cuestión 3: ¿Qué efecto tiene la informática como recurso de apoyo a la docencia?

Respuestas:

3.1 Debo planificar representaciones diversas de simulación gráfica con el ordenador, para el estudio de la forma de la distribución y la sensibilidad del parámetro p; 3.2 La simulación con el ordenador contribuye al estudio de la bondad de ajuste de la

distribución binomial;

3.3 Los dispositivos didácticos manipulativos, computacional y libros de texto son adecuados para la enseñanza del tema.

2. Información (¿Cuál es el sentido de mi enseñanza?)

En esta fase se pretende profundizar en las razones que pueden estar definiendo la práctica, y analizar las respuestas dadas a las situaciones problemáticas con el objeto de detectar las creencias que pueden estar determinando la actuación del docente. En la Tabla 3 se muestran algunas de las reflexiones realizadas sobre la práctica ligada al problema descrito, señalando en la columna de la izquierda aquellos elementos de la descripción que determinan la práctica y en la de la derecha las razones o significados que pueden caracterizarla.

Tabla 3. Algunas Reflexiones sobre la Práctica

Aspectos a destacar Información: ¿Qué principios soportan la práctica? Utilizar

procedimientos preferentemente algebraicos

Presentación del TCL en su formulación general Demostración del teorema

Considerar sucesivas generalizaciones del TCL Cálculo de probabilidades de la media muestral Utilizar los criterios

de calidad de la convergencia en distribución

mediante los libros

Concebir la importancia de los libros de textos: Cuando n tiende a infinito

Si n > 30 se puede usar el TCL

Cuando np y np(1-p) son mayores o iguales a 5, en el caso de la aproximación binomial (Teorema de Laplace De Moivre)

(6)

Tabla 3. Algunas Reflexiones sobre la Práctica (continuación)

Aspectos a destacar Información: ¿Qué principios soportan la práctica? Aproximación de la

distribución

binomial por la distribución normal

Aceptar que una distribución discreta binomial puede llegar a aproximarse mediante una distribución normal de variable continua

El alumno aplica la corrección por continuidad Actividades fuera de

clase

Importante la ejercitación, que contribuye a reforzar el cálculo de probabilidades

Resultados versus razonamiento

Enseñanza centrada en el rendimiento académico y valoración por la asignatura, importante obtener buenas calificaciones

Papel del ordenador en la enseñanza

Discutir sobre las variaciones de los tamaños muestrales

Considerar factores de la familia paramétrica binomial que afectan la precisión de aproximación

Calcular y comparar probabilidades aproximadas y exactas de intervalos de valores de la proporción

Plantear ejercicios con dificultad gradual

El alumno trabaja con dados, fichas, papel-lápiz o calculadora sin utilizar notación o cálculo algebraico

Realiza simulaciones de variadas representaciones gráficas dinámicas basadas en ordenadores

Utiliza procedimientos analíticos en la tipificación y el uso de tablas de distribuciones para calcular probabilidades

Empleo de

representaciones alternativas del TCL

Justificar la aproximación binomial a partir de la simulación Mostrar intuitivamente una primera versión del TCL

Razonar a partir de datos empíricos

En el contexto de experimentar una propuesta didáctica de enseñanza de las distribuciones muestrales para ingenieros, surgen nuevas e interesantes cuestiones a investigar: ¿El teorema central del límite es comprendido conceptualmente o es asociado a una operación algebraica de estandarización? ¿Los alumnos logran la comprensión de las grandes ideas de la estadística y la adquisición de criterio para trabajar con datos? ¿Los estudiantes se motivan por manejos computacionales y la ilustración de representaciones gráficas?

3. Confrontación (¿Cuáles son las causas?)

Esta etapa está pensada para que se produzca con otros docentes e investigadores. Ante su dificultad, en este proceso se ha realizado la confrontación mediante la búsqueda de documentación relativa a las distribuciones muestrales, su enseñanza y aprendizaje, y el uso de recursos informáticos. Entre los temas considerados significativos para profundizar en ellos están los siguientes: La historia del teorema central del límite; Libros de texto universitario de probabilidad y estadística; Currículo por competencias en ingeniería; Concepciones de la enseñanza del teorema central del límite; y, el Uso de la informática en los procesos de enseñanza-aprendizaje del TCL.

En lo que sigue comentaremos acerca de los dos primeros temas mencionados.

3.1 Estudio histórico del teorema central del límite. El significado de un objeto matemático no es único ni estable en el tiempo (Godino, 2002), y es considerado como emergente de la

(7)

actividad de resolución de campos de problemas. El teorema central del límite es uno de los más importantes en estadística matemática y teoría de la probabilidad,lo cual puede verificarse a través del interés que en este asunto han mostrado numerosos matemáticos célebres (Alvarado y Batanero, 2006). La aplicación más conocida de dicho teorema establece que si se cumplen algunas condiciones, entonces la distribución de la media aritmética de un número de variables aleatorias independientes se aproxima a la distribución normal cuando el número de variables crece indefinidamente. Es decir, no es necesario conocer la distribución actual de las variables. A medida que aumenta el número de variables, la suma de éstas puede ser tratada como una distribución normal. A continuación, se presenta un resumen cronológico de la evolución del teorema central del límite identificando sus campos de problemas que lo originaron.

1713-1733 Aproximación de distribuciones. Aproximación de ciertas distribuciones (binomial) para valores grandes de sus parámetros (De Moivre)

1785-1809 Suma de v.a. iid discretas. Suma de variables aleatorias discretas independientes e idénticamente distribuidas (Laplace).

1810-1853 Suma de v.a. independientes. Suma de variables aleatorias discretas independientes no idénticamente distribuidas (Poisson); Suma de variables aleatorias continuas (Cauchy).

1854-1919 Suma de v.a. cualesquiera, incluso dependientes.

Comienzo de la demostración rigurosa del teorema: Estimaciones de error de aproximación (Chebychev); Condiciones de validez del teorema (Markov); Demostración del teorema con la función característica (Liapounov).

1920-1937 Suma de v.a. en ciertas condiciones.

Suma de variables aleatorias dependientes (Linderberg); Prueba de condición necesaria y suficiente para variables aleatorias con rango infinito; Refinamiento de la demostración (Feller-Levy)

El origen del TCL está asociado con la necesidad de encontrar fórmulas de cálculo para la distribución binomial y otras distribuciones discretas, en las que intervienen los términos factoriales y los valores de n crecen muy rápidamente. Antes de la aparición de los ordenadores, varios matemáticos trataron de encontrar valores aproximados de estas probabilidades para valores de n grandes y estudiaron sus condiciones de uso con un error acotado. Estos estudios marcan el inicio del interés por los teoremas de límite. Un problema particular sería la búsqueda de una aproximación de la distribución binomial para valores de n

grandes. Según Mether (2003), Abraham De Moivre (1667-1754) publicó comentarios sobre este asunto en 1730 en su “Miscellanea Analytica”. Los resultados finales aparecieron en su

(8)

Sea X ~B(n,p), px p n x x

n x

P   

    

 (1 )

)

( entonces, para valores grandes de n, X sigue una

distribución aproximadamente normal N(,) de media np y desviación típica   npq;

es decir, la variable Z es aproximadamente normal N (0,1).

El estudio destaca las distintas herramientas matemáticas empleadas, algunas de ellas de gran complejidad. Además, nos muestra algunas dificultades en el desarrollo del teorema central del límite, que podrían ser compartidas por los estudiantes:

1. Aceptar que una distribución discreta (por ejemplo la binomial) puede llegar a aproximarse mediante una distribución continua. Esto requiere pasar de considerar valores aislados de la variable a valores continuos y de la idea de función de probabilidad a la de la función de densidad de probabilidad. El mismo De Moivre, aunque halla la aproximación, no relaciona la fórmula obtenida con la distribución normal, en el sentido de considerar la función obtenida (curva normal) con la función densidad de una variable aleatoria (que sería el límite de la sucesión correspondiente de v.a. binomiales). Usualmente, en las clases de probabilidad enseñamos a los alumnos a diferenciar entre variables discretas y continuas, como si la naturaleza de las variables fuese real, más que un modelo matemático que aplicamos para comprender una situación. Esta drástica división puede provocar dificultades en los alumnos, al entender que el límite de una sucesión (en este caso convergencia en distribución) de elementos de un conjunto (en este caso distribuciones discretas) ha de ser un elemento del mismo conjunto (lo que no se cumple en el TCL).

2. Aceptar las sucesivas generalizaciones del TCL. Esto no ha sido sencillo y ha requerido numerosos pasos: de la distribución binomial a la uniforme discreta, de ésta a variables independientes idénticamente distribuidas discretas, etc. Hoy día mostramos el TCL con total generalidad, pero la comprensión de esta generalidad de aplicación podría requerir un tiempo de maduración. Es decir, el estudio ha procedido ejemplar a ejemplar, comprobando que el TCL se cumple en cada uno de ellos y sólo bastante más tarde se ha pasado a estudiar el tipo general (teoremas de límite generalizado).

3. Comprender que el TCL también se aplica cuando las variables no son idénticamente distribuidas o no son independientes.

4. Pensar que se puede aplicar el TCL en cualquier condición. La generalización progresiva lleva a pensar que el TCL tiene una validez general, y que sólo falta su demostración. Cauchy fue el primero que encontró algunos contraejemplos y el estudio de las condiciones necesarias y suficientes fue largo. Esto es un problema general de validez del razonamiento inductivo, donde la validez de una proposición para una serie de casos particulares no muestra la validez general. Los alumnos podrían presentar las mismas dificultades o confundir las condiciones necesarias con las suficientes.

(9)

En consecuencia, el estudio histórico del teorema permite mostrar la evolución de sus diferentes significados, iniciar la reconstrucción de su significado global y comprender las dificultades encontradas, que pueden posteriormente reproducirse en el aprendizaje de los estudiantes.

3.2 Estudio de libros de texto universitarios de probabilidad y estadística. Alvarado y Batanero (2008) llevaron a cabo un análisis de la presentación del teorema central del límite en una muestra de libros de texto de estadística destinados a la formación de ingenieros. Mostraron que existe una gran riqueza de lenguaje, herramientas de resolución de problemas, conceptos asociados, propiedades y tipos de argumentos que le confieren una gran complejidad y posibilita presentaciones muy diferentes a los alumnos. De la muestra de 16 textos seleccionados varios de ellos comienzan con la aproximación de la distribución normal a la binomial y luego enuncian el teorema central del límite. Sin embargo, otros textos lo abordan enunciando el teorema y luego indicando las condiciones de la bondad de la aproximación para el caso particular de la distribución binomial; lo cual se analizará su conveniencia en una futura propuesta de enseñanza.

El análisis de contenido ha identificado los elementos de significado más importantes del teorema, aunque muestra que no todos se utilizan de manera significativa, debido a las orientaciones particulares de cada texto. Es preocupante que no todos los libros destinados a estudiantes de ingeniería consideren las representaciones y simulaciones, medios didácticos relevantes en el aprendizaje del teorema. En cuanto a los procedimientos de resolución, los textos son pobres al mostrar un algoritmo único y se inclinan por el cálculo algebraico. Respecto al enunciado del teorema, se ha pasado en los últimos años del rigor matemático actualmente a la presentación intuitiva. De las propiedades con significado asociado por la mayoría, la de mayor presencia es la aproximación de la media aritmética a la distribución normal. Se percibe una tendencia de la demostración deductiva a desaparecer en los textos, y se obtuvo el contraejemplo como elemento validativo más recurrente por los autores. Los ejemplos y situaciones no mencionan claramente que se está aplicando el teorema. Además, no se diferencia la aplicación del teorema para la suma de variables aleatorias y la media aritmética, no se enfatizan problemas reales de la ingeniería con salida de software estadístico, ni tratan las propiedades matemáticas de teorema en tópicos tan importantes de la inferencia estadística como los métodos de estimación, errores de estimación y aplicaciones a las distribuciones de probabilidades clásicas.

La información proporcionada por los libros, aunque valiosa es limitada, ya que sólo proporciona una primera aproximación a la enseñanza del teorema. Sin embargo, se ha establecido un significado de referencia para diseñar una propuesta didáctica específica de enseñanza.

(10)

4. Reconstrucción (¿Cómo podría cambiar?)

En la reconstrucción, el docente realiza propuestas para futuras actuaciones derivadas del proceso de reflexión; donde la adecuación se basará en el análisis de texto realizado y de las investigaciones previas, la evolución histórica del teorema y el uso de la tecnología como recurso didáctico. En este caso las implicaciones para la enseñanza del teorema central del límite que se han producido para la práctica son las siguientes:

1. La historia del teorema central del límite como recurso didáctico nos da una perspectiva global que permite conocer la aparición de dificultades epistemológica que presentan una gran dificultad con las que atraviesan los estudiantes y, por lo tanto, podría facilitar al profesor la comprensión del proceso de aprendizaje de los alumnos. La abstracción del teorema y el aparato analítico usado en su solución plantea la pregunta de si es posible enseñar este teorema a los alumnos, debido a la gran complejidad de su aparato analítico. 2. Actualmente es posible mostrar intuitivamente el TCL en sus diversas formulaciones usando

la simulación y graficación. Para el caso de la aproximación de De Moivre los alumnos podrían utilizar algún software estadístico o mini programas applet escrito en java, para representar gráficamente la distribución bin (n,p) para distintos valores de sus parámetros n y p.

3. Un primer acercamiento del alumno hacia la construcción del significado del teorema en el aula deberá considerar la simulación manipulable con lápiz y papel para muestras pequeñas. Luego, continuar la introducción para muestras grandes de forma intuitiva por medio de la simulación gráfica con apoyo del ordenador y posteriormente analizar de forma algebraica con distintas situaciones de problemas que requieren de la proposición como herramienta de análisis de datos en ingeniería.

A partir del significado de referencia del teorema central del límite se amplían las conexiones de elementos de significado (problemas, lenguaje, procedimientos, conceptos, propiedades y argumentos) mediante las representaciones algebraica y computacional, tal como se indica en la Tabla 4.

Tabla 4. Representaciones, algebraica y computacional, de elementos de significado Elementos de

Significado

Representación algebraica Representación computacional

Problemas - Obtener modelos matemáticos para la distribución de

estadísticos

- Obtención experimental de

distribuciones muestrales asintóticas - Investigar el comportamiento de las distribuciones muestrales cuando cambian los parámetros

Lenguaje - Representación simbólica - Expresiones matemáticas específicas

- Representaciones dinámicas - Términos e íconos del programa

Procedimiento - Cálculo de probabilidades - Transformaciones algebraica

- Simulación, variación de parámetros, experimentación

Conceptos - Variables y convergencia - Modelo y parámetros

- Aproximación, distribución muestral asintótica

- Función densidad

(11)

Tabla 4. Representaciones, algebraica y computacional, de elementos de significado (cont.) Elementos de

Significado

Representación algebraica Representación computacional

Propiedades - Tamaño muestral y efecto en la convergencia

- Buen estimador y corrección de continuidad

- Aproximación normal de distribuciones clásicas

- Efecto de los parámetros sobre la aproximación

Argumentos Demostración deductiva - Visuales, generalización y comprobación de ejemplos

Fruto de este proceso, surgió la necesidad de implementar actividades sobre los tipos de representaciones y procedimientos del teorema central del límite, con el objeto de organizar conceptualmente los elementos de significado del TCL puestos en juego durante la reflexión. La distribución muestral relaciona las distribuciones de probabilidades con la inferencia estadística y es importante en el trabajo de futuros profesionales de las ciencias y de la ingeniería, al proporcionarle herramientas metodológicas para analizar la variabilidad, determinar relaciones entre variables, diseñar de forma óptima experimentos, mejorar las predicciones y la toma de decisiones en situaciones de incertidumbre (Retamal, Alvarado y Rebolledo, 2007). Se considera una simulación como un experimento estadístico de muestreo. El inicio del tratamiento didáctico del tema sería proponer a los estudiantes el estudio de la confiabilidad de un sistema compuesto por un número grande de componentes individuales, lo que plantea la aproximación de la distribución binomial bin(n,p) para valores grandes de n. Un experimento con materiales manipulables sirve para deducir una aproximación intuitiva a la distribución normal, que posteriormente es justificada por el profesor en el aula. Aceptada la aproximación y la corrección por continuidad, se aplican los conocimientos adquiridos a otros problemas sobre control de producción e intervalos de confianza.

A continuación, se presentan algunas actividades basadas en representaciones de la experimentación a la generalización de modelos de probabilidad binomial que fueron desarrolladas por un grupo de 110 estudiantes de ingeniería. Se plantean algunos experimentos aleatorios analizando en caso del juego de dados mediante dispositivos manipulables y con uso de Excel (Actividad 2). En los experimentos de dados u otros hay que tener presente que intuitivamente se asignan probabilidades considerando la simetría. Por ello, es necesario en la experimentación que los participantes tiren dados y anoten los resultados obtenidos, y observen lo que sucede con una larga secuencia de resultados, obtenidos a partir de su propia experimentación.

Actividad 2. Experimento con dados. Suponga que gana si obtiene un “6” al lanzar un

dado legal. Simule las posibilidades de ganar en los siguientes casos de varios lanzamientos del dado (n, m) = (4,5), (10,10) y (30,10). Observe que n es el número de ensayos y m el número de réplicas.

(12)

El procedimiento común de análisis es comenzar introduciendo una notación simbólica para designar la variable y modelar el experimento por medio de una sucesión de variables aleatorias identificando el parámetro p: Se define Xi: Obtener un 6 al lanzar un dado. Considere X i =1, si se obtiene el número “6” y 0, en otro caso. El parámetro p = P(E) = P(obtener el “6”) = 1/6. Los estudiantes pueden simular los experimentos mediante una representación matricial, y llegar a definir la variable suma de los resultados. Construir una distribución de frecuencias con su representación gráfica (Tabla 5). Posteriormente, se modelará este experimento por medio de la probabilidad binomial; identificando los parámetros n y p, comparar y utilizar los conceptos de parámetro, estimador, media y varianza (teórica y experimental).

Ahora, los estudiantes están en condiciones de poder interactuar con el modelo de probabilidad binomial, cualquiera sean los parámetros n y p, por medio de un applet desarrollado en la Universidad Católica de la Santísima Concepción (Actividad 3). Esperamos que estudien la forma de la función de probabilidad para distintos valores de sus parámetros.

Actividad 3. Representación computacional. Estudiar la convergencia gráfica de la distribución de probabilidad binomial a la distribución normal (Teorema de Laplace De Moivre) para distintos valores de sus parámetros n y p. En particular, qué observas de las gráficas para los valores de los parámetros p = 0,3 con n = 4, 8, 24 y para p = 0,1 con n = 4, 8 y 50.

(13)

Se pidió a los alumnos comentar la aproximación de la distribución binomial a partir de unas salidas gráficas de ordenador para diferentes valores de sus parámetros. Se recogieron respuestas individuales, que caracterizamos según las siguientes categorías, junto con sus ejemplos.

1. Algunos estudiantes llegaron a un enunciado intuitivo del teorema central del límite para este caso particular. Es la respuesta más frecuente, mediante argumentación gráfica sugiriendo que la gráfica de la distribución binomial toma forma de la distribución normal cuando n crece y se cumple el teorema de L-D:

“A medida que aumenta n, para distintos valores de p mejora la similitud de las gráficas de las distribuciones binomiales a las gráficas de la distribución normal estándar; y si observamos más detenidamente, se produce un desplazamiento hacia la derecha de la distribución binomial a medida que aumenta n. Para lograr corregir este desplazamiento y lograr una mejor aproximación de la distribución binomial a la normal, se aplica el teorema de Laplace-DeMoivre”

“Cuando mayor sea el valor n mejor será la aproximación”

“Cuando n aumenta, la longitud de las barras disminuye, lógicamente, porque la suma de las longitudes de todas las barras debe ser uno, mientras que el área bajo la función de densidad, definida sobre una variable aleatoria continua, de la distribución normal estándar, también debe ser uno”.

2. Varios estudiantes han usado sus conocimientos previos de estadística descriptiva sobre la simetría y sus propiedades:

“Mientras más cercanas sean las medidas de tendencias central (media, mediana, moda), la gráfica de la distribución tomará forma simétrica, lo que implica que a medida de que crece n la aproximación de la distribución binomial a la normal va a ser mejor”,

“En la gráfica de la distribución p = 0,3 y n = 4 los datos se encuentran dispersos, tiene un sesgo positivo, por lo tanto no se observa una distribución simétrica. Distribución p = 0,3 y n = 8: Podemos observar que los datos están a una menor distancia, la gráfica va adquiriendo forma de campana o simétrica, por lo tanto la mediana, la moda y el promedio son similares. Distribución p = 0,1 y n = 50: Los valores están considerablemente a una menor distancia en comparación con los otros gráficos, sus sesgo es 0 tiene un distribución simétrica; un gráfica en forma de campana, con una media, moda y mediana iguales. Su coeficiente de curtosis es igual a 3 por lo tanto su distribución es mesocúrtica”.

3. En otros casos se añade la aplicación de la regla empírica sobre condiciones para la bondad de ajuste:

“Esto se puede analizar con la regla empírica que dice: “la aproximación de la distribución binomial a la normal será buena cuando “np” y “nq” son ambos mayores de 5 y que “p” y “q” no son demasiado pequeños o sea “pq > 0,05”. Entonces para el: Gráfico (p = 0,3, n = 4) : np = 1,2, nq = 2,8, pq = 0,21

(14)

Gráfico (p = 0,3, n = 24) : np = 7,2, nq = 16,8, pq = 0,21 (mejor aproximación) Gráfico (p = 0,1, n = 4) : np = 0,4, nq = 3,6, pq = 0,09

Gráfico (p = 0,1, n = 8) : np = 0,8, nq = 7,2, pq = 0,09 Gráfico (p = 0,1, n = 50) : np = 0,5, nq = 45, pq = 0,09”.

4. Algunos estudiantes realizan los cálculos de probabilidades teórica y aproximada, lo que implica también la estandarización:

“En estas gráficas podemos apreciar claramente que la distribución b(3;0,3), b(4;0,1),

b(8;0,1), no están bien aproximadas por Laplace-De Moivre, ya que “m” (nº de

ensayos de la distribución) es pequeño y no se alcanza a formar la curva normal

representativa”. Consideremos un ejemplo: Si X ~b(4;0,3) entonces P(X2)=0,3483

34,83%. Ahora, si aproximamos la distribución binomial por Laplace-De Moivre

obtenemos: P(X 2)=0,1867 18.67%. En este ejemplo, la probabilidad obtenida a

través de Laplace es bastante más distante que su verdadero valor, y todo esto lo

podemos deducir directamente de la gráfica de la distribución. Para b(8;0,3) la

aproximación a través de Laplace llega a ser un poco más cercana ya que tiene un

mayor nº de ensayos, y podemos apreciar en la gráfica una cierta aproximación a la

curva normal. P(X2)=0,74 y si X~N(2,4;1,68), P(X2)=0,62”.

5. El estudiante comenta y calcula correctamente el resto de los ejemplos. Otro estudiante llega a proponer una hipótesis con respecto al parámetro p, que cuando es más cercana a 0,5 la distribución de probabilidad será menos sesgada, es decir llega a hacer una generalización de experimentos o casos particulares:

“Estamos tratando con una distribución binomial de parámetros (n,p). Se observa claramente, que en los primeros 3 gráficos, al aumentar el tamaño de la muestra y mantener p=0,3 el gráfico presenta una aproximación a la distribución normal, más rápida de lo que se presenta en los 3 gráficos siguientes, ya que la probabilidad es muy pequeña p=0,1. Además, se sabe que el error de la aproximación normal será pequeño si npq es grande. Hipótesis: La aproximación será buena cuando n sea grande y el p sea cercano a 0,5”.

6. Encontramos también reflexiones sobre la relación entre dispersión y desplazamiento de la gráfica:

(15)

“Cuando menor es el valor de n, mayor es la dispersión de la distribución muestral alrededor del valor medio”, “Cuando p es pequeña, la distribución binomial está sesgada hacia la derecha” y “En reducidas cuentas a menor probabilidad se necesitará un tamaño de n mucho más grande para que la curva tome un comportamiento simétrico”.

7. Un alumno menciona la idea de convergencia en distribución es decir, llega a una formalización del teorema mayor que la prevista en la enseñanza:

“Al usar el teorema de Laplace-De Moive para aproximar la distribución binomial con p = 0,3 se puede ver que al aumentar el n, rápidamente la distribución se aproxima a una distribución normal. Cada vez que aumenta el n, las clases aumentan y las frecuencias disminuyen. Al contrario, al revisar la aproximación con un p = 0,1 y un n pequeño (n = 4), la distribución es sesgada a la derecha, y necesitamos un valor de n bastante grande para que la gráfica tome forma de una distribución normal”.

En esta actividad se esperaba que los estudiantes observasen de los gráficos, que a medida que n va siendo más grande, el gráfico se asemeja cada vez más a una distribución normal. Ahora cuando p es muy pequeño (p= 0,1) se necesita un n más grande aún para conseguir una buena convergencia. En general, los estudiantes llegaron a estas propiedades, aunque se manifestaron dos concepciones erradas. La primera consiste en tener sólo en cuenta el tamaño de muestra adecuada, sugiriendo una buena aproximación si n es mayor que 30:

“La pregunta es cuando podemos aproximar la distribución binomial a una distribución normal, la respuesta es con n grande o mayor a 30, porque de no ser así se nos hace difícil encontrar los valores en las tablas”.

“Cuando el n es pequeño (n<30) la gráfica es sesgada”.

Esta concepción podría deberse a una interpretación errónea de la regla incluida en algunos libros de texto de estadística para ingenieros, como por ejemplo Devore (2001, pp. 232), quien menciona la regla empírica:

“Si n>30, se puede usar el teorema del límite central”.

Un segundo error es pensar que la aproximación mejora aumentando el parámetro p. Esto no es así, ya que en la distribución binomial, el óptimo es considerar p=0,5, y en valores cercanos a 1 la convergencia es lenta:

“Para un mismo tamaño de muestra, si la probabilidad es mayor, la distribución binomial se aproxima mejor a la distribución normal” y “A medida que aumentamos el número de observaciones, los gráficos se acercan más a una distribución normal. Mientras más grande sea el valor de p, más rápido se verá en la gráfica su parecido a una distribución normal”.

Finalmente, se aplicó al término del semestre académico un Cuestionario a los estudiantes de ingeniería, de los cuales se presentan los resultados de tres ítems relacionados con la aproximación de la distribución binomial por la normal (Tablas 6, Tabla 7, Tabla 8). En el ítem 2 respondieron 101 alumnos de los 104 que completaron el mismo. Las respuestas correctas están denotadas en negrita.

(16)

Tabla 6. Respuestas a Item 1 sobre aproximación de la Distr. Binomial por la Normal Ítem 1. La aproximación normal mejora cuando el intervalo a calcular en probabilidad:

Frecuencia Porcentaje a) Se acerca al extremo superior de valores de la distribución

binomial

10 10

b) Se aparta del término central de valores de la distribución binomial

4 4

c) Se acerca al extremo inferior de valores de la distribución binomial

2 2

d) Se acerca al término central de valores de la distribución binomial

80 77

e) Ninguna de las anteriores 8 8

El ítem 1 mide la comprensión de otro factor que influye en la buena aproximación a la binomial: la forma de la distribución binomial mejora en simetría y apuntamiento en torno al valor esperado de la variable, cuando aumenta el valor de n. Un 77% de estudiantes valora la mejora de la aproximación normal a la binomial al calcular la probabilidad de un intervalo de valores centrales de la distribución (opción d). En cambio, respecto de los errores, un 16% espera mejor exactitud en la convergencia en valores alejados de los centrales (opciones a, b y c). Este ítem corresponde a la propiedad cuatro de Méndez (1991) y el porcentaje de alumnos que la comprenden es mayor que la obtenida en la investigación citada.

Tabla 7. Respuestas a Item 2 sobre aproximación de la Distr. Binomial por la Normal Ítem 2. La aproximación normal a la distribución binomial bin(n,p) es suficientemente buena cuando (Utilice el applet de la distribución binomial):

Frecuencia Porcentaje a) n es menor que 30 y np aproximadamente igual a 5 6 6

b) n es mayor que 30 y p menor que 0,05 2 2

c) n es mayor que 30 y p aproximadamente igual a 0,5 76 73

d) n mayor que 30 y cualquier p 15 14

e) n mayor que 30 y p igual a 0,9 2 2

El ítem 2 se refiere al campo de problemas aproximación binomial por la distribución normal y evalúa la comprensión intuitiva del teorema de Laplace-De Moivre, y la comprensión de la sensibilidad de los parámetros. Se observa que un 73% de estudiantes reconocen las condiciones que aseguran la precisión de aproximación (opción c). Los errores se distribuyen en un 18% de alumnos, y son relativos a las condiciones de aproximación, siendo el orden de importancia el siguiente: el 14% sólo tiene en cuenta el tamaño muestral y no el parámetro (opción d), un 4% confunde las condiciones del parámetro para la aproximación (opciones b y e) y un 6% considera que la aproximación es buena para tamaños pequeños de muestra (opción a).

(17)

Méndez (1991) postula cuatro propiedades básicas que deben entenderse para poder lograr una comprensión sólida del teorema. Este ítem se puede considerar un caso particular de la tercera y cuarta propiedad: “La forma de la distribución muestral tiende a ser acampanada a medida que se incrementa el tamaño muestral y aproximadamente normal independiente de la forma de la distribución en la población” y “La forma de la distribución muestral crece en altura y decrece en dispersión a medida que el tamaño muestral crece”. Comparada con aquella investigación, los estudiantes muestran mayor dominio del vocabulario técnico. En relación al esquema de razonamiento en inferencia estadística (ERIE) (Moreno, 2003), cerca del 75% del grupo se ubica en el nivel analítico de aplicación, relacionando tres aspectos de convergencia óptima del teorema; influencia del tamaño de la muestra en la estimación, sensibilidad del parámetro p y condición que np = nq = 15 > 5. De los distractores, menos de la cuarta parte del grupo utilizó el razonamiento de transición considerando sólo una muestra suficientemente grande para la bondad del ajuste de aproximación (d), y un porcentaje menor razonó equivocadamente en un nivel cuantitativo (b y e) al considerar dos aspectos, un tamaño de muestra grande pero np o nq no cumplen la condición.

Tabla 8. Respuestas a Item 3 sobre aproximación de la Distr. Binomial por la Normal

Ítem 3. En una empresa de seguro de vida la probabilidad de que reclame un cliente es de un 50% ¿Cuál de estos casos te parece más probable?

Frecuencia Porcentaje a) Que entre los próximos 15 clientes seleccionados 10 o más

reclamen a la empresa.

29 28

b) Que entre los próximos 150 estudiantes seleccionados 100 o más reclamen a la empresa.

13 13

c) Los dos casos anteriores son igual de probables. 62 60

En el ítem 3, sólo un 28% de estudiantes acertó en considerar más probable el caso de muestra más pequeña como la de n=15. Un 60% no diferenció el tamaño de la muestra en el cálculo de probabilidad, lo que puede justificarse por la heurística de la representatividad (Kahneman, Slovic y Tversky, 1982). También, hubo un 13% que señaló más probable el evento de cometer error de programación asociada a un tamaño de muestra grande, resultado que también fue encontrado por Serrano (1996) en su investigación con futuros profesores. En este ítem las justificaciones fueron diferentes en las tres opciones. A continuación se describen seis categorizaciones encontradas en los alumnos:

1. A mayor tamaño de muestra disminuye la probabilidad de ocurrencia (Justificación algebraica correcta).

2. También se registró el desarrollo de la probabilidad mediante la binomial para n =10 y mediante la aplicación del teorema para n =100.

3. A mayor tamaño de muestra disminuye la probabilidad de ocurrencia (Justificación algebraica sin usar corrección de continuidad).

4. A mayor tamaño de muestra disminuye la probabilidad de ocurrencia (Justificación algebraica con algún error o bien no la completa)

(18)

5. A mayor tamaño de muestra mayor probabilidad de ocurrencia (Justificación verbal incorrecta).

6. Heurística de representatividad: No se tiene en cuenta el tamaño de la muestra (justificación verbal incorrecta).

Conclusiones

La investigación didáctica es aún escasa en el contexto universitario, en cuanto a cómo se enseña y qué dificultades tiene la enseñanza de la estadística. En un sentido más amplio, Campanario (2003) señala que las concepciones del docente, sobre la ciencia, la enseñanza, el aprendizaje y las motivaciones de los alumnos, influyen en sus estrategias de enseñanza y en su actuación en el aula. La mayor parte de los profesores universitarios de ciencias hacen lo que creen que es mejor para sus alumnos. Godino (2009) considera clave la faceta epistemológica para analizar los procesos de instrucción matemática; entendida como los conocimientos matemáticos relativos al contexto institucional en que se realiza el proceso de estudio y la distribución en el tiempo de los diversos componentes del contenido (problemas, lenguajes, procedimientos, definiciones, propiedades, argumentos). De acuerdo con nuestra experiencia, la práctica docente debe ser reflexiva, entendida en el sentido que el profesor analice las distintas variables involucradas en el proceso de instrucción matemática y, consecuentemente, sus formas de intervenir en ellos. Para D'amore, Font y Godino (2007) al considerar la construcción del conocimiento matemático por los propios estudiantes en la clase y ser resultado de las interacciones con el medio creado por el profesor, se producen procesos de reflexión e interpretación, tanto sobre los propios objetos matemáticos (situaciones, técnicas, etc.) como sobre los papeles a desempeñar por los distintos agentes.

Resultados preliminares, en diferentes actividades presentadas a los estudiantes, sobre concordancias y diferencias entre el significado personal que atribuyen los estudiantes a las aplicaciones del teorema central del límite para el caso de poblaciones binomiales se mencionan a continuación:

a) Algunos estudiantes llegaron a un enunciado intuitivo del teorema central del límite, para este caso particular; otros han usado sus conocimientos previos de estadística descriptiva sobre simetría y sus propiedades; también, utilizan la regla empírica sobre condiciones para la bondad de ajuste; realizan cálculos de probabilidades teórica y aproximada lo que implica su estandarización a la distribución normal. En general, los alumnos llegan a utilizar las propiedades, aunque se han presentado dos concepciones erradas. La primera consiste en tener sólo en cuenta el tamaño de muestra adecuada, sugiriendo una buena aproximación si n es mayor que 30. Esta concepción podría deberse a una interpretación errónea de la regla incluida en algunos libros de texto de estadística para ingenieros, como por ejemplo Devore (2001, pp. 232) quien menciona la regla empírica: “Si n > 30, se puede usar el teorema central del límite”. Un segundo error es pensar que la aproximación mejora aumentando el parámetro p. Esto no es así, ya que en la distribución binomial, el óptimo es considerar p = 0,5, y en valores cercanos a 1 la convergencia es lenta.

b) En general, los estudiantes de ingeniería han mostrado una comprensión aceptable en la distribución aproximada de la suma de variables aleatorias que provienen de poblaciones

(19)

binomiales, el uso del lenguaje simbólico con algunas excepciones, el procedimiento algebraico y la tipificación, las propiedades de la media y la varianza de la suma de variables aleatorias. Los elementos que dan origen a dificultades son: expresión verbal incorrecta de conceptos relacionados con el teorema central del límite, errores de estandarización al confundir la suma por el promedio, no aplicar la corrección de continuidad.

c) La apropiación de conceptos y propiedades del tema, se evidencia en el aprendizaje mostrado en las distintas pruebas de evaluación, aunque han sido desigual. Logran familiarizarse con los recursos informáticos presentados siendo capaces de simular experimentos y utilizan más elementos de significado correctamente en las actividades. Sin embargo, existen diferencias de intensidad de implementación, por ejemplo en la argumentación, y hay que dedicar más tiempo al tema. Cabe destacar, que se observa una implicación alta de los alumnos en las distintas actividades implementadas; considerando las características de los estudiantes de ingreso a la universidad cuyas competencias matemáticas son débiles, que en alguna medida inciden en las tasas de reprobación y desmotivación de los estudiantes.

En ocasiones, los profesores asumimos sin cuestionarnos los enunciados matemáticos-estadísticos, de manera que llegan a los estudiantes como un producto acabado. En estos casos, nuestras exposiciones en el aula no muestran los conflictos del proceso histórico creativo ni la forma en que han llegado a construirse los conceptos y proposiciones importantes. El estudio histórico realizado nos permite comenzar a reconstruir el significado global del concepto, en el que, además de su dimensión matemática, tendríamos que incluir las componentes epistemológica, didáctica y cognitiva y será la base para el posterior diseño de la enseñanza del tema. No obstante, el análisis de los textos, aunque no sustituye la observación de la enseñanza en el aula, puede proporcionar información para la construcción de instrumentos de evaluación o para mejorar la enseñanza. Asimismo, puede ser un recurso para los profesores, contribuyendo a tomar decisiones sobre cuáles pueden recomendar a sus alumnos, proporcionándoles ideas para enriquecer su actividad docente en el aula y mostrando algunas dificultades que podrían tener los estudiantes al estudiar estos textos.

Referencias

Alvarado, H. y Batanero, C. (2006). El significado del teorema central del límite: evolución histórica a partir de sus campos de problemas. En A. Contreras (Ed.): Investigación en Didáctica de las Matemáticas, pp. 257-277. Jaén: Universidad de Jaén.

Alvarado, H. y Batanero, C. (2007). Dificultades de comprensión de la aproximación normal a la distribución binomial. Números, 67.

Alvarado, H. y Batanero, C. (2008). Significado del teorema central del límite en textos universitarios de probabilidad y estadística. Estud. Pedagóg. Vol. 34, Nº 2, 7-28.

Campanario, J.M. (2003). Contra algunas concepciones y prejuicios comunes de los profesores universitarios de ciencias sobre la didáctica de las ciencias. Enseñanza de las Ciencias, 21 (2), pp. 319-328.

(20)

D'amore, B., Font, V. y Godino, J. D. (2007). La dimensión metadidáctica en los procesos de enseñanza y aprendizaje de la matemática. Paradìgma, vol.28, no.2, p.49-77

delMas, R. C., Garfield, J. B., y Chance, B. L. (1999). A model of classroom research in action: developing simulation activities to improve students´ statistical reasoning. Journal of Statistic education. Vol. 7, 3.

Devore, J. (2001). Probabilidad y estadística para ingeniería y ciencias (5ª ed.). México: Thompson.

Flores, P. (2000). Reflexión sobre problemas profesionales surgido durante las prácticas de enseñanza. EMA, vol. 5, nº 2, pp. 113-138.

Godino, J. D. (2002). Un enfoque ontológico y semiótico de la cognición matemática.

Recherches en Didactiques des Mathematiques, 22 (2/3), 237-284.

Godino, J. D. (2009). Categorías de análisis de los conocimientos del profesor de matemáticas.

UNION, 20, pp. 13-31.

Kahneman, D., Slovic, P., & Tversky, A. (1982) Judgment under uncertainty: Heuristics and biases. New York: Cambridge University Press.

Méndez, H. (1991): Understanding the central limit theorem. Tesis Doctoral. Universidad de California. UMI 6369.

Mether, M. (2003). The history of the central limit theorem. Sovelletun Matematiikan erikoistyöt. On line: http://www.sal.tkk.fi/Opinnot/Mat-2.108/pdf-files/emet03.pdf.

Moreno, A. J. (2003). Estudio teórico y experimental sobre el aprendizaje de conceptos y procedimientos inferenciales en el nivel de secundaria. Tesis Doctoral. Universidad de Granada.

Retamal, L., Alvarado, H. y Rebolledo, R. (2007). Comprensión de las distribuciones muestrales en un curso de estadística para ingenieros. Ingeniare, 15, 6-17.

Serrano, L. (1996). Significados institucionales y personales de objetos matemáticos ligados a la aproximación frecuencial de la probabilidad. Tesis Doctoral. Universidad de Granada. Smyth, J. (1991). Una pedagogía crítica de la práctica en el aula. Revista de educación, 294,

pp. 275-300.

Tauber, L., Batanero, C. y Sánchez, V. (2005). Diseño, implementación y análisis de enseñanza de la distribución normal en un curso universitario. EMA,9 (2), 82-105

Agradecimientos: Este trabajo ha sido realizado en el marco del proyecto Fondecyt Nº 11080071.

Los Autores Hugo Alvarado Martínez, Profesor de Matemática y Dr. en Didáctica de la Matemática, es Profesor Asistente del Departamento de Matemática y Física Aplicadas de la Facultad de Ingeniería de la Universidad Católica de la Santísima Concepción, Chile. Línea de investigación Didáctica de la Probabilidad y la Estadística.

alvaradomartinez@ucsc.cl Lidia Retamal Pérez, Profesora de Matemática y Magíster en Estadística, es Profesora Auxiliar del Departamento de Matemática y Física Aplicadas de la Facultad de Ingeniería de la Universidad Católica de la Santísima Concepción, Chile. Línea de investigación Enseñanza de la Probabilidad y la Estadística

Referencias

Documento similar

Para ello, trabajaremos con una colección de cartas redactadas desde allí, impresa en Évora en 1598 y otros documentos jesuitas: el Sumario de las cosas de Japón (1583),

Entre nosotros anda un escritor de cosas de filología, paisano de Costa, que no deja de tener ingenio y garbo; pero cuyas obras tienen de todo menos de ciencia, y aun

Sanz (Universidad Carlos III-IUNE): &#34;El papel de las fuentes de datos en los ranking nacionales de universidades&#34;.. Reuniones científicas 75 Los días 12 y 13 de noviembre

(Banco de España) Mancebo, Pascual (U. de Alicante) Marco, Mariluz (U. de València) Marhuenda, Francisco (U. de Alicante) Marhuenda, Joaquín (U. de Alicante) Marquerie,

Habiendo organizado un movimiento revolucionario en Valencia a principios de 1929 y persistido en las reuniones conspirativo-constitucionalistas desde entonces —cierto que a aquellas

d) que haya «identidad de órgano» (con identidad de Sala y Sección); e) que haya alteridad, es decir, que las sentencias aportadas sean de persona distinta a la recurrente, e) que

Las manifestaciones musicales y su organización institucional a lo largo de los siglos XVI al XVIII son aspectos poco conocidos de la cultura alicantina. Analizar el alcance y

En este sentido, puede defenderse que, si la Administración está habilitada normativamente para actuar en una determinada materia mediante actuaciones formales, ejerciendo