debe e ser ser con contra trasta stada da nec necesa esaria riament mente. e. Par Para a est esto o es es ind indisp ispens ensable able ded deduci ucir r cie cierta rtass consecuencias lógicas de esta hipótesis, lo que equivale a planear un “modelo lógico” consecuencias lógicas de esta hipótesis, lo que equivale a planear un “modelo lógico” de contrastación que sirve para planear a su vez, un “modelo operacional o empírico” de contrastación que sirve para planear a su vez, un “modelo operacional o empírico” de contrastación. Esta decisión será el punto de partida para la construcción del de contrastación. Esta decisión será el punto de partida para la construcción del diseño metodológico, procedimental y de análisis en el desarrollo de la investigación. diseño metodológico, procedimental y de análisis en el desarrollo de la investigación. Tendrá que ser detallado dentro del proyecto de investigación.
La perspectiva etic conlleva la infalibilidad de los juicios del investigador sobre su material de estudio, mientras que el enfoque emic indica la necesidad de incorporar la perspectiva del nativo a los fines de lograr penetrar en sus pensamientos sobre su música. Sin embargo, ¿quién puede garantizar que la traducción de la perspectiva del nativo en términos del investigador será la correcta? ¿dónde se halla la adecuación de una descripción emic? ¿en la pragmática? ¿o en la confianza ciega en nuestros infor- mantes? Por otro lado, ¿cuáles son los límites de la perspectiva etic? ¿constituye el único lugar posible para la teoría? ¿acaso su adecuación se encuentra en la base prag- mática o en la confianza ciega en nuestras propias suposiciones? A estas preguntas sobre cuestiones epistemológicas de lo emic/etic, se las puede responder si se refor- mula el estatus epistemológico de cada una de las perspectivas durante el diseño de la investigación musical. Sobre esta última cuestión versa el siguiente trabajo: des- arrollar la propuesta de que lo emic funciona como reglas a ser validadas, mientras que lo etic permite formular hipótesis de emicidad a ser verificadas. El caso de estu- dio es la práctica musical en la Estancia La Candelaria (Pcia. de Córdoba), donde los músicos nativos llevan a cabo la ejecución de su repertorio mostrando variantes rít- micas que responden al acento regional, según las circunstancias concretas en que tiene lugar el hecho musical.
La investigación se desarrolló en la Universidad Nacional de Trujillo, el objetivo fue determinar la eficacia de la aplicación del modelo didáctico propuesto: “elaboración y contrastación de hipótesis” en el aprendizaje de la Biofísica de estudiantes de las Escuelas de Microbiología y Parasitología (secciones A y B) durante el semestre 2015-II y de Ciencias Biológicas durante el semestre 2006-I (secciones A y B). El universo muestral estuvo constituido por 73 alumnos, 37 de las secciones del grupo experimental y 36 de las secciones grupo control. La recolección de datos se hizo mediante listas de cotejo, guías de observación y pruebas. Se utilizó para el análisis estadístico de los resultados, la distribución F, una vez comprobada la equivalencia de los valores de dispersión en los dos grupos; ambos grupos de estudio fueron sometidos a los modelos de enseñanza respectivos, reportando para el grupo experimental (microbiología) una media y desviación estándar de 13.20 y 0.56, mientras que el grupo control 8.93 y 2.81. La diferencia sustantivamente significativa se le puede atribuir a la aplicación de los modelos bajo estudio, tiene un mejor rendimiento académico el grupo con la aplicación de modelo didáctico elaboración y contrastación de hipótesis. En la sección de Ciencias Biológicas se reporta para el grupo experimental una media y desviación estándar de 11.8 y 1.01, mientras el grupo control 11.50 y 1.71 respectivamente la prueba F del análisis de covarianza no encuentra evidencias suficientes para declarar una diferencia estadística significativa. Si bien es cierto existe un mejor promedio en el grupo experimental, esta diferencia no es significativa entre ambos grupos, por lo que la aplicación de los métodos bajo estudio, y de acuerdo a las medias del rendimiento de los grupos no existe una diferencia estadística en el efecto del método experimental respecto al grupo control.
Las nociones de hipótesis y contrastación se constituyen en temas centrales de la breve historia de la filosofía de la ciencia como disciplina institucionalizada. Merton trató, en su tiempo, de proponer caminos a la sociología, y lo hizo en base a la concepción clásica de las teorías, y de ello resulta que no pudo escapar tratar del tema de la contrastación de hipótesis (y, entonces, la noción de hipótesis) mismo que mínimamente. Como visto, él utiliza estas dos nociones para aclarar y poner fin a discusiones innecesarias sobre su propuesta de cómo y con qué tipo de teorías debería trabajar la sociología. Con el objetivo específico de explicitar como la contrastación de hipótesis de teorías sociológicas puede ser tratada desde un marco distinto, sin con esto ir en contra de la concepción mertoniana de teorías de alcance intermedio, fueron presentadas brevemente las ideas básicas de la concepción clásica de teorías (como plasmadas en la versión carnapiana de 1956 y 1966), las ideas básicas de la noción mertoniana de teorías de alcance intermedio y también las ideas básicas de ME. Después de esto, fue presentada parte de la reconstrucción de TGR y, desde este caso concreto de una teoría indicada por Merton como una teoría de alcance intermedio, se mostró cómo es posible entender, desde la perspectiva semanticista de ME, la afirmación de Merton de que una hipótesis específica se derive de un conjunto limitado de supuestos, por una parte, y que una hipótesis específica debe ser confirmada por la investigación empírica.
Se podría decir que el problema de determinar cuándo, cómo y porqué una hipótesis A llegaría a poseer un 51% de probabilidades de ser veraz, en contraposición a una hipótesis B que gozaría de un cercano 49%, es algo que permanece en tinieblas. Las razones de ello pueden ser, a mi parecer, las mismas que se le atribuyen a los modelos valorativos basados en esquemas matemáticos, que ya fueron mencionadas anteriormente. Sin embargo, lo anteriormente expuesto puede obedecer a una simple confusión relativa al concepto de “probable”, ya que existen dos maneras o formas de entender esta expresión; la primera obedece a las típicamente conocidas probabilidades matemáticas. La segunda, y es aquí en donde se genera la confusión, está relacionada con entender por “probable” como una probabilidad subjetiva, no cuantificable numéricamente, sino mediante los grados de confirmación aportados por los modelos o esquemas de confirmación. Bajo este punto de vista, La hipótesis A resultará más probable (y por ende más justificada según este estándar) que la hipótesis B cuando, después de ser sometidas ambas a los criterios de confirmación y solidez de pruebas, resulte que la hipótesis A ganó mínimamente la contrastación en uno o varios de los criterios a los que ambas fueron sometidas. En definitiva, basta con que una hipótesis sea ligeramente superior en cuanto a solidez probatoria para que sea considerada, según el estándar de prueba preponderante, como más aceptable y justificada que su contraparte negativa.
La Tabla N° 1, muestra los resultados del experimento considerando dos grupos de estudio, el experimental con la aplicación del modelo didáctico basado en la elaboración y contrastación de hipótesis, y el grupo control considerando el método tradicional “transmisión recepción”. Para darle consistencia al trabajo los grupos fueron evaluados simultáneamente, durante el semestre en un curso básico: Biología de los Microorganismos, desarrollado por los grupos, comprobándose el equilibrio u homogeneidad en el rendimiento; el grupo experimental obtuvo una media y desviación estándar de 12.07 y 0.96 respectivamente, mientras que el grupo control reportó 11.79 y 1.12, y que al someterse a la prueba F del análisis de varianza no se detecta una diferencia estadística significativa (p > 0.05), lo que permite señalar que ambos grupos tienen rendimientos académicos similares y que la diferencia encontrada entre ambos grupos no va a alterar significativamente el resultado de la evaluación final. Luego ambos grupos de estudio fueron sometidos a los métodos respectivos, reportando para el grupo experimental una media y desviación estándar de 13.20 y 0.56 respectivamente, mientras que el grupo control obtuvo para los mismos indicadores 8.93 y 2.81; la prueba F del análisis de covarianza que compara de manera más refinada a los promedios encuentra evidencias suficientes para declarar una diferencia estadística altamente significativa (p < 0.01). El análisis de covarianza usado tiende a reducir el efecto que puede tener el puntaje del rendimiento inicial o basal sobre la calificación final en el curso de Biofísica. La diferencia sustantivamente significativa entre ambos grupos se le puede atribuir a la aplicación de los métodos bajo estudio, y de acuerdo a las medias del rendimiento de los grupos, tiene un mejor rendimiento académico el grupo con la aplicación del modelo didáctico basado en la elaboración
las condiciones examinadas las tasas de error de Tipo I, resultaba m´as potente que sus rivales cuando se comportaba de una manera liberal, esto es, cuando el dise˜no estaba equilibrado [r]
Cada valor de la variable respuesta se puede considerar como el valor medio global, m´ as el efecto adicional del nivel i del factor α, m´ as el efecto adicional del nivel j del factor β[r]
(2003) es usar formatos probabilísticos que hacen claras las relaciones de conjuntos y tratar de mostrar que estos formatos producen. resultados tan buenos como los for[r]
Antes de afrontar la redacción de una versión defi nitiva del Proyecto Ciudad se quiere profundizar en este proceso. Los resultados del “diagnóstico percibido” que ha surgido del proceso de participación han sido la guía para la elaboración de una propuesta inicial de Hipótesis de Modelo Urbano y Proyectos Estratégicos como paso previo a la elaboración de una versión defi nitiva del Proyecto Ciudad.
que el efecto es producido por información que hace claras las relaciones de conjuntos del problema, y la que llamaremos Hipótesis de las Frecuencias Naturales (HFN), [r]
Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. de la U.P.M. 3 Desde luego el diseño de un procedimiento de decisión, debe llevarse a cabo con la idea de probabilidad de una conclusión equivocada . Es decir, la aceptación de una hipótesis implica tan sólo que los datos de la muestra no proporcionan evidencia suficiente para rechazarla. El rechazo de la hipótesis implica que la evidencia de la muestra la refuta. Existen dos tipos de contrastes:
Comprobar una hipótesis significa someterla a contrastación de una realidad. Es decir, el investigador tiene que someter a prueba aquello que ha enunciado en su hipótesis, y para ello ha de establecer, mediante alguna técnica de contrastación si su hipótesis concuerda o no con los datos empíricos. En tal caso, sólo se pueden dar dos posibilidades previsibles: o bien la hipótesis puede verse apoyada por datos empíricos y decimos que ella ha sido confirmada, o bien la hipótesis no corresponde con los datos empíricos y decimos entonces que ella ha sido desconfirmada o refutada por los datos empíricos.
Lord Acton (citado en Popper, 1962)
Introducción
En los últimos diez años se ha presentado una preocupación por el desarrollo de la teoría en la disciplina de la administración. Algunos académicos centran su atención en entender los procesos mediante los cuales se han construido los paradigmas teóricos existentes en el campo (Smith y Hitt, 2005), mientras que otros resaltan de manera crítica los problemas inherentes al desarrollo de teoría y la falta de comunicación entre las diferentes escuelas de administración (Huczynsky, 1993). Uno de estos problemas está representado por la incidencia de los intereses económicos de las fi rmas de consultoría para la administración y el management, y la actitud de los gerentes en relación con la construcción y falsación, vía la contrastación, de la teoría en el campo. Estas preocupaciones son relevantes, puesto que el avance del conocimiento en la teoría organizacional y el management depende de la capacidad y el interés de las personas de ciencia por contrastar las conjeturas o hipótesis desarrolladas en la administración.
Como puede verse se ha calculado la OR (y un intervalo de confianza al 95%, que llama de Cornfield, y que es algo más grande que el que proporciona SPSS), y el RR (que lógicamente no tiene sentido si se trata de un estudio de casos y controles o de un diseño transversal).
Se ha realizado un ANOVA a los datos para contrastar la hipótesis de si existen diferencias significativas entre los resultados de la elección en los cuatro tipos de municipios seleccionado. Para poder aplicar este análisis, los datos deben cumplir una serie de hipótesis de partida que son la normalidad y homocedasticidad, como en este caso estas hipótesis no se cumplen, se ha realizado también algunos tests no paramétricos, como el de Kruskal- Wallis, cuyo fin es el mismo que el ANOVA pero los datos no tienen que cumplir las hipótesis anteriores. Aplicando ambas metodologías, obtendremos unos resultados mucho más fiables.
**Universidad Autónoma del Estado de México 2
Artículo recibido el 20 de abril y aceptado el 24 de junio de 2014. RESUMEN
El consumo de productos y servicios en Internet se ha estudiado a partir de dos hipótesis, según las cuales los usuarios compran productos o contratan servicios en la medida en que la información se percibe como útil o riesgosa. Por consiguiente, la utilidad percibida supone que los protocolos de in- formación digitales tienen mayores beneficios que costos, o bien, en comparación con otros modos de comercio, Internet resulta más compatible con estilos de vida implicados en dispositivos electrónicos. Sin embargo, la percepción de riesgo es un factor que no solo inhibe las transferencias electrónicas, sino que además hace más selectiva la búsqueda y compra de bienes de consumo o la contratación de servi- cios. Precisamente, el objetivo del presente trabajo fue establecer las dimensiones de la selectividad en torno al consumo electrónico. Para tal fin, se realizó una selección no probabilística de 188 internautas a los que se aplicó un cuestionario de ciberconsumo, el cual obtuvo una consistencia interna adecuada. A partir de un modelo estructural, se estimó la validez reflectiva de cuatro indicadores del consumo en Internet. Los resultados se discuten a partir del estado actual del conocimiento.
Es importante recordar que las hipótesis siempre son proposiciones sobre la población o distribución bajo estudio, no proposiciones sobre la muestra. Por lo general, el valor del parámetro de la población especificado en la hipótesis nula (50 cm/s en el ejemplo anterior) se determina en una de tres maneras diferentes. Primero, puede ser resultado de la experiencia pasada o del conocimiento del proceso, o incluso de pruebas o experimentos previos. Entonces, el objetivo de la prueba de hipótesis usualmente es determinar si ha cambiado el valor del parámetro. Segundo, este valor puede obtenerse a partir de alguna teoría o modelo que se relaciona con el proceso bajo estudio. En este caso, el objetivo de la prueba de hipótesis es verificar la teoría o modelo. Aparece una tercera situación cuando el valor del parámetro de la población proviene de consideraciones externas, tales como las especificaciones de diseño o ingeniería, o de obligaciones contractuales. En esta situación, el objetivo usual de la prueba de hipótesis es probar el cumplimiento de las especificaciones.
E n 2005 se celebra el centenario de los trabajos de Albert Einstein, pu- blicados en Annalen der physik, que llevaron a reconocer nuevas propie- dades de la luz, la materia, el espacio y el tiempo. En ellos, conocidos en la literatura como los artículos sobre el efecto fotoeléctrico, el movimien- to browniano y la relatividad, abordó problemas de frontera para la épo- ca, asociados a preguntas sobre la luz ¿ondas o corpúsculos? y ¿existe el éter luminífero?, y sobre la mate- ria ¿existen los átomos? Para las dos primeras, las respuestas de consenso eran ondas y que el éter si existe con base en la teoría electromagnética de Maxwell. Para la tercera, había premios Nobel de física y de química que respondían “la hipótesis atómi- ca no es necesaria para entender el comportamiento de la materia”. Eins- tein, en el trabajo sobre movimiento browniano, proporciona los métodos para validar o rechazar la hipótesis atómica; los experimentos favorecie- ron la validación y permitieron con- tar el número de átomos y determi- nar sus tamaños. En el artículo sobre la relatividad, responde a la segun- da pregunta “la introducción de un éter luminífero es superfl ua”. Mien- tras que en el texto sobre el efecto fotoeléctrico, la primera pregunta se transforma y sugiere la respues- ta ondas y partículas; pero durante