Macbay: Herramienta para construir sistemas de enseñanza aprendizaje inteligentes con enfoque bayesiano

Texto completo

(1)Universidad Central "Marta Abreu" de Las Villas Facultad de Matemática, Física y Computación. TRABAJO DE DIPLOMA. Macbay: Herramienta para construir Sistemas de Enseñanza-Aprendizaje Inteligentes con enfoque bayesiano.. Autor: Adael Acosta Beltrán. Tutoras: Denysde Medina Sotolongo Natalia Martínez Sánchez. Curso: 2006 - 2007.

(2) Hago constar que el presente trabajo fue realizado en la Universidad Central Marta Abreu de Las Villas como parte de la culminación de los estudios de la especialidad de Ciencias de la Computación, autorizando a que el mismo sea utilizado por la institución, para los fines que estime conveniente, tanto de forma parcial como total y que además no podrá ser presentado en eventos ni publicado sin la autorización de la Universidad.. Firma del autor. Firma del autor. Los abajo firmantes, certificamos que el presente trabajo ha sido realizado según acuerdos de la dirección de nuestro centro y el mismo cumple con los requisitos que debe tener un trabajo de esta envergadura referido a la temática señalada.. Firma del tutor. Firma del jefe del Seminario.

(3) "La época de los milagros ya ha pasado, ahora debemos buscar las causas de todo lo que sucede en el mundo" William Shakespeare.

(4) Dedico este trabajo de diploma a mis padres que me han apoyado siempre en cada etapa de mi vida..

(5) Agradecimientos •. A mi familia por todo el apoyo que me ha brindado, y en especial a mi tío Eduardo que me ha ayudado mucho para salir adelante en mi carrera.. •. A mi tutora Denysde por todo su esfuerzo y abnegación.. •. A la profesora Zenaida por toda la ayudada brindada.. •. A todas las personas que colaboraron de una forma u otra..

(6) ÍNDICE INTRODUCCIÓN.................................................................................................................. 8 CAPÍTULO 1: LA INTELIGENCIA ARTIFICIAL Y LOS MAPAS CONCEPTUALES EN LA CONSTRUCCIÓN DE SISTEMAS DE ENSEÑANZA-APRENDIZAJE INTELIGENTES. DEFINICIONES BÁSICAS................................................................... 11 1.1) Los Sistemas de Enseñanza-Aprendizaje Inteligentes y su aplicación en la enseñanza asistida por computadora................................................................................. 11 1.1.1) Enseñanza asistida por computadora (EAC) ................................................ 11 1.1.2) Aplicación de la Inteligencia Artificial en la enseñanza ............................. 15 1.1.3) Sistemas de Enseñanza-Aprendizaje Inteligentes: Definición y aplicaciones 15 1.2) Uso de los Mapas Conceptuales en la enseñanza asistida por computadora........ 17 1.2.1) Definición y características de los Mapas Conceptuales ................... 18 1.2.2) Características básicas de los Mapas Conceptuales ..................................... 20 1.2.3) Tipos de Mapas Conceptuales ...................................................................... 20 1.2.4) Los Mapas Conceptuales y el aprendizaje................................................... 21 1.3) Definiciones básicas de la teoría de probabilidades ............................................. 24 1.3.1) Distribución de probabilidad.............................................................................. 24 1.3.2) Dependencia e independencia ............................................................................ 25 1.3.3) Teorema de Bayes .............................................................................................. 26 1.4) Definiciones básicas de la teoría de grafos........................................................... 26 1.4.1) Características de los grafos no dirigidos ..................................................... 28 1.4.2) Características de los grafos dirigidos .......................................................... 29 1.4.3) Grafos triangulados....................................................................................... 31 1.4.4) Grafos agrupados.......................................................................................... 33 1.5) Conclusiones parciales ......................................................................................... 35 CAPÍTULO 2: IMPLEMENTACIÓN DE MACBAY VERSIÓN 1.0 ................................ 36 2.1) Implementación del Modelo del Estudiante usando Redes Bayesianas. .............. 36 2.1.1) Redes Bayesianas ............................................................................................... 36 2.1.1.1) Propagación exacta en modelos de redes probabilísticas ..................... 37 2.1.1.2) Propagación de la evidencia ................................................................. 38 2.1.1.3) Propagación usando árboles de unión .................................................. 40 2.1.2) Contribuciones de las Redes Bayesianas al Modelo del Estudiante .................. 47 2.2) Generalidades de MacBay......................................................................................... 48 2.3) Ejemplo de aplicación ............................................................................................ 52 2.4) Conclusiones parciales. ........................................................................................ 59 CAPÍTULO 3: MANUAL DE USUARIOS ........................................................................ 60 3.1) Inicio de sesión de trabajo......................................................................................... 60 3.2) Interfaz para el usuario profesor............................................................................... 61 3.3) Interfaz del estudiante ............................................................................................... 78 CONCLUSIONES................................................................................................................ 83 RECOMENDACIONES ...................................................................................................... 84 REFERENCIAS BIBLIOGRÁFICAS ................................................................................. 85 BIBLIOGRAFÍA .................................................................................................................. 87.

(7) ANEXOS .............................................................................................................................. 88 Anexo 1: Diagrama de Casos de Uso. .............................................................................. 88 Anexo 2: Expansión de casos de uso................................................................................ 89 Anexo 3: Diagrama de Transición de Estado. .................................................................. 90 Anexo 4: Diagrama de actividades................................................................................... 91.

(8) Introducción. INTRODUCCIÓN Las nuevas tecnologías han aportado al campo de la educación aspectos innovadores que suponen una mejora cualitativa en las formas de enseñar y aprender. Como dijo Calvin Goolidge: “ La educación consiste en enseñar a los hombres, no lo que deben pensar, sino a pensar". Esta es una tendencia que va tomando auge en nuestros tiempos y al desarrollo de la misma contribuyen diferentes ciencias tales como: las Ciencias Pedagógicas, la Ciencia de la Computación y la Psicología. Dentro de la Ciencia de la Computación tiene una contribución destacada la Enseñanza Asistida por Computadora (EAC). Una de las principales innovaciones introducidas en los programas de EAC han sido los llamados Sistemas de Enseñanza-Aprendizaje Inteligentes (SEAI), que, a diferencia de los programas tradicionales, muestran la capacidad de adaptarse a cada uno de los alumnos que los usan para aprender, proporcionando así una enseñanza individualizada, que según se demuestra en (Bloom, 1984) es el mejor método de enseñanza. La aplicación de la Inteligencia Artificial (IA) a la educación ha abierto un gran espectro de posibilidades para desarrollar sistemas inteligentes que sean interactivos y permitan guiar a los estudiantes en el proceso de enseñanza-aprendizaje. Por tanto, si la característica clave de este tipo de sistemas es la capacidad de adaptarse al alumno, su componente principal es el denominado modelo del estudiante, donde se almacena la información relativa al mismo; la cual debe ser inferida por el propio sistema a partir de la información que tenga disponible: datos previos, respuestas a preguntas, etc. Este proceso de inferencia se denomina diagnóstico, y es sin duda el proceso más complicado dentro de un SEAI, dado que además de la dificultad que supone conlleva tratamiento de información que en muchos casos es incierta o imprecisa. El objetivo general de este trabajo es desarrollar una herramienta computacional de apoyo a la enseñanza, combinando los Mapas Conceptuales (MC) y las Redes Bayesianas (RB), que se adapte a las características del estudiante y que ofrezca a los profesores no expertos en 8.

(9) Introducción computación una manera de determinar qué partes del dominio de conocimiento domina el estudiante y cuáles son las que desconoce. Lo que hará posible: 1. Implementar un módulo que ofrezca una interfaz gráfica para representar el conocimiento a través de MCs y que facilite la conformación del Sistema de Enseñanza-Aprendizaje para una asignatura. 2. Implementar un módulo que se encargue de recolectar evidencias para utilizarlas en el proceso de inferencia. 3. Implementar un módulo encargado de construir la Red Bayesiana y realizar las inferencias que constituyen el modelo del estudiante de la herramienta MacBay. Para esto se proponen las siguientes preguntas de investigación: 1. ¿La combinación de Mapas Conceptuales con Redes Bayesianas constituirá una técnica apropiada para organizar y representar el conocimiento? 2. ¿La utilización de las RBs en el contexto de los MC permitirá que estos sean adaptativos e inteligentes? 3. ¿Será factible el resultado de la aplicación de la herramienta desarrollada en el modelado del alumno, partiendo de su capacidad de adaptarse a las características del estudiante?. La investigación propuesta en este Trabajo de Diploma se realiza a partir de una petición del Laboratorio de Informática Educativa del Centro de Estudios de Informática (CEI) el cual se encuentra desarrollando el diseño e implementación de este tipo de SEAI, los cuales se consideran de gran importancia para apoyar el proceso de enseñanza-aprendizaje en cualquier nivel de enseñanza, pues tienen como característica fundamental que se adaptan a las características del estudiante permitiendo que la enseñanza sea individualizada. Esto contribuye a que se puedan poner en práctica las ideas de los nuevos planes de estudio donde se persigue que el estudiante aprenda cómo apropiarse de los contenidos por sí. 9.

(10) Introducción mismo. Disponer de un sistema que esté orientado a las individualidades de cada estudiante y que lo guíe en el proceso de enseñanza-aprendizaje se considera una contribución a tales propósitos. Este trabajo está estructurado en tres capítulos, de la siguiente forma: Capítulo 1: Se aborda el tema de los Sistemas de Enseñanza-Aprendizaje Inteligentes, Mapas Conceptuales, y sus aplicaciones. En este capítulo se tratan varias definiciones básicas de probabilidades y de grafos que son necesarias para una mayor comprensión de este trabajo. Capítulo 2: Se enuncian varias definiciones referentes a la teoría de RBs, así como del algoritmo de propagación de la evidencia que utiliza la herramienta MacBay, de la cual se describen las consideraciones que se tuvieron en cuenta para su implementación. Capítulo 3: Se ofrece un detallado manual de usuario, con el cual se facilita el uso de la herramienta MacBay.. 10.

(11) Capítulo 1. CAPÍTULO 1: LA INTELIGENCIA ARTIFICIAL Y LOS MAPAS CONCEPTUALES EN LA CONSTRUCCIÓN SISTEMAS. DE. DE. ENSEÑANZA-APRENDIZAJE. INTELIGENTES. DEFINICIONES BÁSICAS En este capítulo se trata la temática de los Sistemas de Enseñanza-Aprendizaje Inteligente (SEAI). Se menciona la aplicación de la Inteligencia Artificial (IA) en la enseñanza, así como el uso del Modelo del Estudiante (ME) para lograr que los sistemas se adapten a las características del alumno y la aplicación de los Mapas Conceptuales (MC) como técnica avanzada de enseñanza-aprendizaje. Se abordan definiciones básicas de la teoría de probabilidades y de grafo que serán necesarias para la comprensión del trabajo realizado.. 1.1). Los Sistemas de Enseñanza-Aprendizaje Inteligentes y su aplicación en la enseñanza asistida por computadora. 1.1.1) Enseñanza asistida por computadora (EAC) La idea de utilizar la computadora en la educación es casi tan vieja como la propia computadora. Las diferentes dimensiones en que la informática y la educación pueden relacionarse son: Computación como objeto de estudio: aprender acerca de la computadora •. Alfabetización computacional.. •. Programación de computadoras y la enseñanza de la solución de problemas.. •. Formación de especialistas en Computación e Informática.. La computadora como herramienta de trabajo: uso de las aplicaciones de la computadora para apoyar procesos educativos (educación complementada con la computadora).. 11.

(12) Capítulo 1 La computadora como medio de enseñanza-aprendizaje: ambientes de enseñanzaaprendizaje enriquecidos con la computación (enseñanza asistida por computadoras). Al conjunto de recursos informáticos diseñados con la intención de ser utilizados en el contexto enseñanza- aprendizaje se le denomina software educativo. Estos programas abarcan finalidades muy diversas que pueden ir desde la adquisición de conceptos al desarrollo de destrezas básicas, o la resolución de problemas. Otros autores suelen llamarlos Softwares Instructivos, Programas Instructivos, MEC (Materiales Educativos Computarizados), etc. En Inglés courseware. Existen diferentes tipos de software educativos que pueden utilizarse en el proceso enseñanza aprendizaje (aunque existan otros): programas de ejercitación, tutoriales, sistemas expertos, programas de demostración, simuladores, repasadores, juegos, sistemas de aplicación. Hay que ver a la computadora como un medio complementario a otros a que puede utilizar el profesor, pero este medio debe superar las limitaciones de los medios educativos convencionales, enfrentando el reto que le imponen los últimos avances tecnológicos. (Bello RE, 2002a) Existen diversas clasificaciones de software educativos realizadas por diversos autores como son: Galvis en su obra “Ingeniería de software educativo”, presenta las clasificaciones siguientes de acuerdo a:. Enfoque educativo: •. Algorítmico.. •. Heurístico.. 12.

(13) Capítulo 1 Función educativa: •. Sistema tutorial.. •. Sistema de ejercitación y práctica o entrenadores.. •. Simulador.. •. Juego educativo.. •. Micromundo exploratorio.. •. Sistemas expertos.. •. Sistemas inteligentes de enseñanza/aprendizaje.. Sevillano en su obra “Nuevas Tecnologías, Medios de Comunicación y Educación” expone una clasificación de acuerdo al uso del software educativo:. Uso instruccional: •. Programas tutoriales.. •. Programas de ejercitación y práctica.. Uso demostrativo o conjetural: •. Simulaciones.. •. Realidad virtual.. •. Los juegos realísticos o juegos de roles.. Uso con función de entretenimiento: •. Se aprende jugando.. Usos especiales: •. Para alumnos con deficiencias.. Uso emancipado: •. Laboratorios.. •. Telecomunicaciones.. •. Procesadores de textos. 13.

(14) Capítulo 1 •. Bases de datos.. •. Hojas de cálculo.. •. Paquetes estadísticos.. •. Diseño de gráficos. (Sevillano, 1998). El grupo de Informática Educativa de la Universidad Central “Marta Abreu” de Las Villas (UCLV) comparte el criterio de clasificación de software educativo según:. Función educativa: •. Sistema tutorial.. •. Sistema de ejercitación y práctica (entrenador).. •. Simulaciones.. •. Juegos didácticos.. Forma de presentación: •. Multimedia.. •. Hipermedia (García, 2000).. •. Sitios Web.. Uso o no de técnicas de Inteligencia Artificial: •. Sistemas convencionales.. •. Sistemas inteligentes.. •. Estos sistemas a su vez pueden ser del tipo a) o b).. Estas clasificaciones no son excluyentes, en un mismo software educativo las mismas pueden combinarse. (Maikel León 2006) Para una descripción detallada sobre los diferentes tipos de software educativo consulte (Bello RE, 2002a). 14.

(15) Capítulo 1. 1.1.2) Aplicación de la Inteligencia Artificial en la enseñanza La educación es otra de las áreas de aplicación de la Inteligencia Artificial. En la década de los 80 (Tennyson, mayo 1987) una de las áreas de aplicación de la IA que más se desarrolló fue la esfera educacional, específicamente los sistemas para entrenamiento. Por otra parte (Galvis Panqueva, Colombia, 1994) y (Alessi, 1985) incluyen a los sistemas expertos como uno de los tipos de sistemas de EAC que utilizan técnicas de IA. Un profesional en formación puede beneficiarse observando cómo un sistema experto resuelve un problema difícil, así como analizando las explicaciones que ofrece y los métodos de búsqueda y solución aplicados por el sistema. Es por ello que los sistemas expertos constituyen un valioso recurso en el proceso docente (Bello RE, 2002a). Los sistemas expertos no constituyen la única vía para el empleo de las técnicas de IA en la enseñanza. Se pudiera hacer referencia a un término más general, como son los sistemas de enseñanza inteligentes, lo cual se aborda en el siguiente tópico.. 1.1.3) Sistemas de Enseñanza-Aprendizaje Inteligentes: Definición y aplicaciones Los SEAI utilizan técnicas de IA y enfocan una sesión de trabajo como un proceso de cooperación entre el sistema y el alumno, con el objetivo de propiciar el aprendizaje. El sistema debe analizar en cada momento el comportamiento del estudiante para caracterizar su actuación y decidir cuál es la estrategia más adecuada a aplicar; qué explicarle, con qué‚ nivel de detalle, cuándo interrumpirle, cómo corregirle, de forma que culmine con éxito el proceso de aprendizaje. Un aspecto fundamental es que para decidir y aplicar dicha estrategia, es necesario conocer la materia que se imparte y comprender la forma en que se asimila. Las variantes metodológicas de estos sistemas de enseñanza inteligentes son: (Bello RE, 2002a) •. Tutores inteligentes (STI).. •. Entrenadores inteligentes.. •. Sistemas inteligentes basados en simulación.. •. Juegos inteligentes.. 15.

(16) Capítulo 1. Sus fundamentos teóricos se apoyan en la Ingeniería del Conocimiento, las técnicas de IA, así como la ciencia pedagógica, ya que por medio de entrevistas y sesiones realizadas con los profesores más experimentados se recopilan conocimientos valiosos que se pueden formalizar y codificar. El éxito de este tipo de sistema estará determinado por su capacidad de manipular características específicas y procesos involucrados en la instrucción, incluyendo la capacidad de establecer diálogo en lenguaje cercano al natural (Garijo, 1985). Estos sistemas inteligentes se diferencian de los convencionales en que pueden manejar conocimiento estructurado y empírico, no procesan datos, sino conocimiento representado en forma adecuada, explican la línea del razonamiento que siguen y justifican las conclusiones a que llegan. Los STI se componen por los siguientes módulos: Experto sobre el objeto de estudio: Tiene como función resolver los problemas y ejercicios, en forma simbólica y numérica en algunos casos. Tutor: Dirige al componente Experto con el objetivo de enseñar. Determina qué sabe el estudiante y cuál es la próxima tarea a plantear. Cuando se producen errores, el tutor no sólo debe detectarlos sino también establecer un diagnóstico que le permita al estudiante tomar una actuación adecuada para corregirlos. Modelo del estudiante: Representa el estado actual del conocimiento y las habilidades del alumno. Se emplea para realizar predicciones sobre el trabajo futuro. Bases de datos sobre el estudiante: Incluye datos personales (nombre, especialidad, etc.), así como otros relativos a capacidad del estudiante, sus generalizaciones, abstracciones y habilidades acerca del campo concreto de enseñanza.. 16.

(17) Capítulo 1 Módulo de explicaciones: Se encarga de ofrecer una explicación cuando el estudiante arriba a cierta conclusión. Adquisición automática de conocimiento: Es el módulo que "aprende" e incorpora nuevas reglas al tutor sobre la base de la experiencia de interacción con el usuario. Interfaz: Tiene como función comunicar al estudiante con el sistema, mediante el uso de un lenguaje cercano al natural, gráficos y notaciones especializadas. Los STI no están exentos de limitaciones, (Webb, 1988), (Rosemberg, noviembre 1987) señalan las siguientes deficiencias que aun se encuentran vigentes: •. Alto costo de desarrollo.. •. Alto costo del equipamiento requerido para su uso.. •. Incapacidad para manipular dominios complejos.. •. Carencia de métodos de representación del conocimiento que faciliten el acceso a dicho conocimiento.. •. Necesidad de añadir al dominio conocimiento secundario relacionado.. Con el fin de disminuir los costos anteriormente señalados, se construyen entrenadores inteligentes, los cuales están primordialmente orientados al desarrollo de habilidades, pues no pretenden la dirección total del proceso de instrucción ni llevan a cabo la formación de conceptos nuevos. Sólo supervisan la actividad práctica del estudiante mediante el control de los errores durante la solución de los ejercicios, hacen recomendaciones y controlan la presentación dosificada de problemas y ejercicios. Por sus funciones, los entrenadores inteligentes, tienen una estructura más simple que los STI (M, 1989).. 1.2) Uso de los Mapas Conceptuales en la enseñanza asistida por computadora Los mapas conceptuales (MC) iniciaron su desarrollo en el Departamento de Educación de la Universidad de Cornell, EUA, durante la década de los setenta y constituye una. 17.

(18) Capítulo 1 respuesta a la teoría del aprendizaje significativo desarrollada por Ausubel. Estos han constituido desde entonces, una herramienta de gran utilidad para profesores, investigadores de temas educativos, psicólogos, sociólogos y estudiantes en general, así como para otras áreas sobre todo cuando se necesita tratar con grandes volúmenes de información. En los últimos años, los MC han alcanzado una gran popularidad y en su integración con las tecnologías de computación y las comunicaciones, se han convertido en un elemento muy importante en los planes de perfeccionamiento de los sistemas de enseñanza y han extendido su uso a otras esferas de la actividad humana en las que la gestión y uso del conocimiento ocupe un lugar preponderante.. 1.2.1) Definición y características de los Mapas Conceptuales Los MC fueron definidos por Novak, su creador, como una técnica que representa, simultáneamente, una estrategia de aprendizaje, un método para captar lo más significativo de un tema y un recurso esquemático para representar un conjunto de significados conceptuales incluidos en una estructura de proposiciones. Los elementos básicos de un MC son: •. Los conceptos: También llamados nodos, son regularidades en los acontecimientos o en los objetos que se designan mediante un término. Los conceptos hacen referencia a acontecimientos que son cualquier cosa que sucede o puede provocarse y a objetos que son cualquier cosa que existe y se puede observar. Los conceptos son, según Novak, desde la perspectiva del individuo, las imágenes mentales que provocan en nosotros las palabras o signos con la que expresamos regularidades. Estas imágenes tienen elementos comunes en todos los individuos y matices personales de quien las percibe. Para una de las asignaturas en que se ha trabajado con la utilización de estas técnicas (“Sistemas Operativos Avanzados”), los términos proceso, recursos, multiprogramación, son ejemplos de conceptos que deben ser tenidos en cuenta al de elaborar un mapa para su descripción y comprensión.. 18.

(19) Capítulo 1 •. Las palabras-enlace: Son palabras que unen los conceptos y señalan los tipos de relación existente entre ambos. Siempre que sea posible debe garantizarse que una sola palabra describa la relación entre dos conceptos. En todo caso, el enlace debe quedar suficientemente claro.. •. Las proposiciones: Están constituidas por conceptos y palabras-enlace. Es la unidad semántica más pequeña que tiene valor de verdad. Su lectura debe ser fácil de comprender para quien la interpreta.. En el mapa conceptual se organizan dichos elementos, relacionándose gráficamente, y formando cadenas semánticas, es decir cadenas que poseen un significado. De esta manera el MC más pequeño que se puede construir, será aquel que esté compuesto por. dos. conceptos, una palabra - enlace y la proposición que surge de esta relación. Por ejemplo los conceptos árbol y hojas pueden ser relacionados mediante la palabra – enlace “posee" y se construye un mapa como el que se muestra en la Figura 1:. Figura 1: Ejemplo simple de la estructura de un MC En este ejemplo "posee" actúa como palabra - enlace y se forma una proposición que se lee, Árbol posee Hojas. Claro que nadie estaría en la necesidad de construir un Mapa Conceptual tan simple, pero ellos. pueden alcanzar cualquier complejidad y estar. conformado por cientos de conceptos y palabras - enlace, en correspondencia con el tema que está representando.. 19.

(20) Capítulo 1 Es importante aclarar desde ahora, que no hay un mapa conceptual correcto único, pueden existir varios; lo importante son las relaciones que se establecen entre los conceptos a través de las palabras-enlace para formar proposiciones que configuran un valor de verdad sobre el objeto estudiado. Por tal razón, en torno a un concepto pueden señalarse diversidad de valores de verdad. De hecho resulta muy difícil encontrar dos MC exactamente iguales, debido al carácter individual del conocimiento. 1.2.2) Características básicas de los Mapas Conceptuales •. Organización del conocimiento en unidades o agrupaciones holísticas, es decir, que cuando se activa una de estas, también se activa el resto.. •. Segmentación de las representaciones holísticas en subunidades interrelacionadas.. •. Estructuración serial y jerárquica de las representaciones. En los mapas conceptuales resalta sobre todo la jerarquización, de la misma manera que no tiene en cuenta como característica importante la ordenación temporal.. 1.2.3) Tipos de Mapas Conceptuales Por la propia definición y la razón de ser de los mapas conceptuales, los de tipo jerárquico son los más usados y difundidos, pero éstos pueden diseñarse siguiendo otro criterio de organización. Los cuatro tipos principales son: 1. Mapas conceptuales en forma de araña (SPIDER CONCEPT MAP). El mapa es estructurado de manera que el término que representa al tema principal es ubicado en el centro del gráfico y el resto de los conceptos llegan mediante la correspondiente flecha. 2. Mapas conceptuales jerárquicos (HIERARCHY CONCEP MAP). La información se representa en orden descendente de importancia. El concepto más importante es situado en la parte superior del mapa.. 20.

(21) Capítulo 1 3. Mapa conceptual secuencial (FLOWCHART CONCEPT MAP). En este tipo de mapa los conceptos son colocados uno detrás del otro en forma lineal. 4. Mapa conceptual en sistema (SYSTEMS CONCEPT MAP). En este tipo de mapa la información se organiza también de forma secuencial pero se le adicionan entradas y salidas que alimentan los diferentes conceptos incluidos en el mapa. 5. MC hipermediales (MCH) es aquel que en cada nodo de la hipermedia contiene una colección de no más de siete conceptos relacionados entre sí por palabras enlaces. A cada uno de estos nodos se lo denomina vista. Cada vista puede ser visualizada en una ventana.. Se distinguen dos tipos de conceptos: los propios de la vista y los. importados a la misma. Los primeros corresponden a aquellos que constituyen inicialmente la vista y los segundos son los que se toman desde otra para poder así establecer relaciones entre conceptos de distintas vistas (Bello RE, 2002b).. 1.2.4) Los Mapas Conceptuales y el aprendizaje David Ausubel y Otros, Novak, formularon una teoría de aprendizaje que ha resultado ser un gran aporte para el perfeccionamiento de la educación. La idea principal en la teoría de Ausubel es que el aprendizaje de nuevos conocimientos depende de la medida de lo que ya se conoce. En otras palabras, la construcción del conocimiento comienza con nuestra observación y reconocimiento de eventos y objetos a través de conceptos que ya se poseen. En general, nosotros aprendemos construyendo una red de conceptos. La. memoria. es. una. estructura. de. conocimientos. interrelacionados,. la. cual. esquemáticamente se puede visualizar como una red en la que cada unión (nodo) es un conocimiento y cada flecha la interrelación con otros conocimientos. Aprender, bajo esta perspectiva, se centra en incorporar a la estructura de memoria nuevos aprendizajes y ser capaz de recuperarlos y usarlos cuando se necesita. Enseñar, por consiguiente, se centra en procurar que el estudiante llene los vacíos existentes en dicha estructura de memoria. Los estudiantes no son receptores pasivos de conocimiento, sino por el contrario participantes. 21.

(22) Capítulo 1 activos en la interpretación de los modelos (muchas veces analogías) que ellos mismos o el profesor les proponen para que intenten aprender aquello que aún no saben. Los esquemas de conocimiento incluyen una amplia variedad de tipos de conocimiento sobre la realidad que van desde informaciones sobre hechos y sucesos, experiencias y anécdotas personales, actitudes, normas y valores, hasta conceptos, explicaciones, teorías y procedimientos relativos a dicha realidad. Los esquemas que los alumnos poseen no sólo se caracterizan por la cantidad de conocimientos que contienen, sino también por su nivel de organización interna, es decir, por las relaciones que se establecen entre los conocimientos que se integran en un mismo esquema y por el grado de coherencia entre dichos conocimientos. Otro elemento. importante en la teoría de Ausubel, es el enfoque de. aprendizaje. significativo. Para aprender significativamente los individuos deben relacionar nuevos conocimientos con conceptos relevantes que ellos ya conocen (a diferencia del aprendizaje por memorización). El nuevo conocimiento debe interactuar con la estructura del conocimiento ya aprendida. El aprendizaje significativo puede ser contrastado con aprendizaje por memorización el que también puede incorporar nueva información a la estructura del conocimiento, pero sin interacción. El aprendizaje memorístico es débil para recordar secuencias de objetos, pero no ayuda con lo aprendido a entender las relaciones entre los objetos. El aprendizaje significativo, entonces, es personal, idiosincrático, e involucra el reconocimiento de relaciones entre conceptos. El aprendizaje como procesamiento de información y más específicamente en la línea de Ausubel del aprendizaje significativo, Novak introduce el mapa conceptual como una respuesta al aprendizaje significativo. Según. (Ontoria, 1993), se construye como un. proceso: •. Centrado en el alumno y no en el profesor.. •. Que atiende al desarrollo de destrezas y no se conforme sólo con la repetición memorística de la información por parte de alumno.. 22.

(23) Capítulo 1 •. Que pretenda el desarrollo armónico de todas las dimensiones de la persona, no solamente intelectuales.. Así pues, se trata de una propuesta metodológica de carácter abierto y por tanto, lo importante es la revisión crítica y la adaptación a las necesidades curriculares de cada profesor. Como ya sabemos, no todas las experiencias didácticas tienen los mismos resultados en los distintos grupos y niveles. Respecto a las destrezas cognitivas, los mapas de conceptos desarrollan: •. Las conexiones con ideas previas, tanto en su confección antes del desarrollo del tema, como en su tratamiento posterior.. •. Capacidad de inclusión, dada la jerarquización de los conceptos y el nivel de comprensión que implica su relación.. •. La diferenciación progresiva entre conceptos, sobre todo si se elaboran en diferentes momentos del desarrollo del tema.. •. La integración o asimilación de nuevas relaciones cruzadas entre conceptos.. A las características anteriores se desea incorporar la capacidad para organizar el conocimiento según una estructuración. lógica así como la destreza para formular las. proposiciones que definen un segmento de la realidad de una manera concisa y clara. Desde el punto de vista del colectivo contribuye a lograr una mayor uniformidad en el nivel de conocimiento de los integrantes de un grupo. Así pues, el MC aparece como una herramienta de asociación, validación, interrelación, discriminación, descripción y ejemplificación de contenidos, con un alto poder de visualización. Precisamente para desarrollar los mapas conceptuales J.D. Novack y sus colaboradores, lo hicieron dentro del marco de. un programa denominado Aprender a. Aprender, en el cual, se pretendía liberar el potencial de aprendizaje en los seres humanos que permanece sin desarrollar y que muchas prácticas educativas entorpecen en lugar de facilitar.. 23.

(24) Capítulo 1 La incidencia de los MC en la pedagogía moderna para definir y organizar planes de estudio, currículo, programas de asignaturas y para la acción directa en el proceso de aprendizaje ha trascendido las aspiraciones iniciales de su creador.. 1.3) Definiciones básicas de la teoría de probabilidades En este epígrafe se abordarán algunas definiciones de probabilidades, que son imprescindibles para comprender la teoría de Redes Bayesianas y el algoritmo de Propagación de Probabilidades en Árboles de Unión, que se aborda en el capitulo 2 de este trabajo y forman parte del marco teórico de la herramienta desarrollada. Para profundizar acerca de estas definiciones puede consultar (Castillo, 1996).. 1.3.1) Distribución de probabilidad Sea {X1,…, Xn} un conjunto de variables aleatorias discretas y {x1,…,xn} el conjunto de sus posibles realizaciones. La variable se denota con una letra mayúscula y su realización con una letra minúscula. Por ejemplo, si Xi es una variable binaria, entonces xi puede ser 1 ó 0, p(x1,…,xn) denota la distribución de probabilidad conjunta (DPC) de las variables en X, esto es:. p (x1 ,K, xn ) = p ( X 1 = x1 ,K, X n = x n ) .. (1). La distribución de probabilidad marginal (DPM) de la i-ésima variable se obtiene por. p(xi ) = p( X i = xi ) =. ∑ p(x ,K, x ). 1 x1 ,K, xi −1 ,xi +1 ,K, xn. n. (2). El conocimiento acerca de la ocurrencia de un evento puede modificar las probabilidades de otros eventos. Cada vez que nueva información se hace disponible, la probabilidad de los eventos puede cambiar. Esto conduce al concepto de probabilidad condicional.. Definición 1: Probabilidad condicional.. Sean X y Y dos subconjuntos disjuntos de. variables tales que p(y) > 0. Entonces, la distribución de probabilidad condicional (DPCO) de X dado Y=y está dado por (Linares, 2000). 24.

(25) Capítulo 1. p( X = x | Y = y ) = p(x | y ) =. p ( x, y ) p( y ) .. (3). La ecuación (3) implica que la DPCO de X y Y se puede escribir como. p ( x, y ) = p ( x ) p ( x | y ). (4). Un caso particular de (3) se obtiene cuando X es una sola variable y Y es un subconjunto de variables. En este caso (3) se convierte en. p(xi | x1,K, xk ) =. p(xi , x1,K, xk ) ∑x p(xi , x1,K, xk ) i. .. (5). Definición 2: Función de probabilidad del tipo multinomial. Este tipo de funciones pueden ser definidas, ya sea de forma paramétrica o numérica, por medio de tablas que asignan valores numéricos a las diferentes combinaciones de las variables involucradas.(Castillo, 1996). 1.3.2) Dependencia e independencia Definición 3: Independencia de dos variables. Sean X y Y dos subconjuntos disjuntos del conjunto de variables aleatorias {X1,…, Xn}. Entonces se dice que X es independiente de Y ssi, donde ssi significa sí y solo sí p(x|y)=p(x),. ( 6). para todos los posibles valores x y y de X y Y; en otro caso se dice que X es dependiente de Y. (Linares, 2000) Definición 4: Independencia de un conjunto de variables. Las variables aleatorias {X1,…,Xm} se dice que son independientes ssi m. p(x1,K, xm ) = ∏ p(xi ) i=1. ,. (7). para todos los posibles valores x1,…,xm de X1,…,Xm; en otro caso se dice que son dependientes. (Linares, 2000). 25.

(26) Capítulo 1 Definición 5: Dependencia e independencia condicional. Sean X, Y y Z tres conjuntos disjuntos de variables, entonces se dice que X es condicionalmente independiente de Y dado Z, ssi. p(x | z, y ) = p( x | z ) ,. (8). para todos los posibles valores x, y, y z de X, Y, y Z; en otro caso X y Y se dice que son condicionalmente dependientes dado Z. (Linares, 2000). Cuando X y Y son condicionalmente independientes dado Z, se escribe I(X,Y|Z). La declaración I(X,Y|Z) se refiere como declaración condicional de independencia (DCI). Igualmente, cuando X y Y son condicionalmente dependientes dado Z, se escribe D(X,Y|Z), y se llama declaración condicional de dependencia. 1.3.3) Teorema de Bayes Usando (3) y (5), se tiene. p(xi | x1 ,K, xk ) =. p(xi , x1 ,K, xk ) . ∑x p(xi ) p(x1 ,K, xk ). (9). i. Esta ecuación se conoce como Teorema de Bayes. (Linares, 2000). 1.4) Definiciones básicas de la teoría de grafos Se tiene un conjunto de objetos relacionados X = {X1,X2,…,Xn}. El conjunto X representa un conjunto de nodos, o vértices, un nodo para cada elemento de X. Estos nodos pueden ser conectados por segmentos, arcos, o flechas. Si hay una conexión entre dos nodos Xi y Xj se usa Lij para denotar esa conexión. El conjunto de todas las conexiones se denota por: L = {Lij | Xi y Xj están conectados} Los conjuntos X y L definen un grafo. Ejemplo 1. Grafos. La figura 1 es un ejemplo de un grafo que está formado por siete nodos X = {A, B,…,G}, cada uno está representado por un círculo, y un conjunto de seis conexiones, L = {LAB, LAC, LBD, LCE, LDF, LDG}. Cada conexión se representa por un segmento que conecta dos nodos.. 26.

(27) Capítulo 1. Figura 1. Un ejemplo de un grafo o una red. Definición 6: Grafo o red. Un grafo G = (X, L) se define por dos conjuntos X y L, donde X es un conjunto finito de nodos X = {X1, X2,…, Xn} y L es un conjunto de conexiones, esto es, un subconjunto de todos los posibles pares ordenados de nodos distintos. La palabra grafo y red son usadas como sinónimo en este trabajo. (Linares, 2000) Las conexiones de un grafo pueden ser dirigidas o no dirigidas, dependiendo de si importa o no el orden de los nodos involucrados. Definición 7: Conexión dirigida. Sea G = (X, L) un grafo. Cuando Lij∈L y Lji∉L, la conexión Lij se llama conexión dirigida. Una conexión dirigida entre los nodos Xi y Xj se denota por Xi→Xj. (Linares, 2000) Definición 8: Conexión no dirigida. Sea G = (X, L) un grafo. Cuando Lij∈L y Lji∈L, la conexión entre los nodos Xi y Xj se llama conexión no dirigida. Una conexión no dirigida entre los nodos Xi y Xj se denota por Xi−Xj o Xj−Xi. (Linares, 2000) Definición 9: Grafo dirigido y no dirigido. Un grafo en el cual todas las conexiones son dirigidas se llama grafo dirigido, y uno en el cual todas las conexiones sean no dirigidas se llama grafo no dirigido. (Linares, 2000) Definición 10: Conjunto de adyacencia. Dado un grafo G = (X, L) y un nodo Xi, el conjunto de adyacencia de Xi es el conjunto de nodos directamente accesibles desde Xi, esto es, Adj (Xi) = {Xj∈X | Lij∈L}. (Linares, 2000). 27.

(28) Capítulo 1 Definición 11: Camino entre dos nodos. Un camino del nodo Xi al nodo Xj es un conjunto ordenado de nodos (Xi1,..., Xir), comenzando en Xi1 = Xi y terminando en Xir = Xj, tal que exista una conexión de Xik a Xik+1, k = 1,..., r-1, esto es, Xik+1∈ Adj (Xik), k = 1,..., r-1. La longitud de este camino es (r-1), el número de conexiones que contiene. Los caminos se pueden representar, en caso de un camino (Xi1,..., Xik) como: Xi1−...−Xik para un grafo no dirigido, Xi1→...→Xik para un grafo dirigido. (Linares, 2000) Definición 12: Camino cerrado. Un camino (Xi1,…, Xir) se dice que es cerrado si tiene el mismo nodo al principio y al final, esto es, Xi1 = Xir. (Linares, 2000) 1.4.1) Características de los grafos no dirigidos Definición 13: Grafo completo. Un grafo no dirigido se dice que es completo si existe una conexión entre cada par de sus nodos. (Linares, 2000). Figura 2. Ejemplo de grafo completo con cinco nodos. Definición 14: Conjunto completo. Un subconjunto de nodos S de un grafo G se dice que es completo si existe una conexión entre cada par de los nodos en S. Dos nodos conectados en un grafo forman un conjunto completo. El grafo de la figura 3 contiene dos subconjuntos completos de longitud 3: {D, E, G} y {E, F, G}. (Linares, 2000) Definición 15: Conglomerado. Un conjunto completo de nodos C es un conglomerado si es máximo, esto es, no es un subconjunto propio de otro conjunto completo. (Linares, 2000). 28.

(29) Capítulo 1 Ejemplo 2. Conglomerados. La figura 3 contiene los Conglomerados siguientes: C1={A,B}, C2={B,C}, C3={C,D}, C4={D,H}, C5={D,E,G}, C6={E,F,G} y C7={A,E}.. Figura 3. Ejemplo de conglomerados asociados a un grafo. Definición 16: Lazo. Un lazo es un camino cerrado en un grafo no dirigido. (Linares, 2000) Ejemplo 3. Lazo. Considere el grafo no dirigido dado en la figura 3. El camino cerrado A−B−C−D−E−A es un lazo de longitud 5. Definición 17: Vecinos de un nodo. Al conjunto de los nodos adyacentes al nodo Xi en un grafo no dirigido se le llama vecinos de Xi, Nbr(Xi) = {Xj | Xj ∈ Adj(Xi)}. (Linares, 2000). 1.4.2) Características de los grafos dirigidos Definición 18: Padres e hijos. Cuando hay una conexión dirigida Xi→Xj desde Xi a Xj, entonces se dice que Xi es el padre de Xj, y que Xj es el hijo de Xi. El conjunto de todos los padres de Xi se denota por. ∏ Xi. . En un grafo dirigido, el conjunto. de los hijos de un nodo Xi coincide con el conjunto de adyacencia asociado al nodo. (Linares, 2000) Definición 19: Familia de un nodo. El conjunto formado por un nodo y sus padres se llama la familia del nodo. (Linares, 2000) 29.

(30) Capítulo 1. Definición 20: Descendiente de un nodo. Los descendientes de un nodo Xi lo constituyen el conjunto de todos los nodos Xj en todos los caminos dirigidos que emanan de Xj, excepto Xi. (Linares, 2000) Definición 21: Grafo no dirigido asociado a un grafo dirigido. Al grafo no dirigido obtenido sustituyendo cada conexión dirigida en un grafo dirigido con una conexión no dirigida se llama grafo no dirigido asociado a un grafo dirigido.. (a). (b). (c). Figura 4. Un ejemplo de (a) un grafo dirigido, (b) el grafo no dirigido asociado, y (c) el grafo moralizado asociado. Por ejemplo, la figura 4(b) es el grafo no dirigido asociado al grafo dirigido de la figura 4(a). Definición 22: Grafo moral. El grafo obtenido primeramente uniendo (adicionando una conexión entre) cada par de nodos con hijos comunes en un grafo dirigido, y luego eliminando la direccionalidad de las conexiones, se llama grafo moral. (Linares, 2000) Por ejemplo, la figura 4(c) muestra el grafo moral asociado al grafo de la figura 4(a). Note que cada uno de los pares {(A, B), (C, D), (G, H)} tienen un hijo en común. El grafo moral se obtiene adicionando las tres conexiones indicadas por las líneas punteadas y luego ignorando la direccionalidad de todas sus conexiones. En los grafos los caminos cerrados reciben diferentes nombres dependiendo de su carácter dirigido o no dirigido. Cuando el camino se define en un grafo dirigido es un ciclo, en cambio cuando la direccionalidad de las conexiones no importa, esto es, cuando el camino se define en el grafo no dirigido asociado, se llama lazo. 30.

(31) Capítulo 1. Definición 23: Ciclo. Un ciclo es un camino dirigido cerrado en un grafo dirigido. (Linares, 2000) Definición 24: Grafos cíclicos y acíclicos. Un grafo dirigido se dice que es cíclico si contiene al menos un ciclo. En otro caso, se llama grafo acíclico dirigido (GAD). (Linares, 2000) Definición 25: Árboles simples y poliárboles. Un grafo dirigido se llama árbol simple si cada nodo tiene como máximo un padre. En otro caso, se llama poliárbol .(Castillo, 1996). 1.4.3) Grafos triangulados Esta sección introduce los grafos triangulados y provee un algoritmo para probar si un grafo es triangulado o no y para adicionar las conexiones necesarias para triangular el grafo si este ya no lo estaba. Definición 26: Cuerda de un lazo. Una cuerda es una conexión entre dos nodos de un lazo que no esté contenido en el lazo. Los lazos de longitud tres no pueden contener una cuerda. Lazos de esta longitud se llaman triángulos.(Linares, 2000) Definición 27: Grafos triangulados. Un grafo no dirigido se dice que es triangulado, o cordal, si cada lazo de longitud cuatro o más tiene al menos una cuerda.. (a). (b). Figura 5. (a) Un grafo triangulado y (b) un grafo no triangulado.. 31.

(32) Capítulo 1 Definición 28: Cadena de conglomerados. Un grafo no dirigido tiene asociado cadenas de conglomerados ssi es triangulado.(Linares, 2000) Definición 29: Frontera de un conjunto de nodos. La unión de los conjuntos de vecinos de los nodos de un conjunto dado, S, excluyendo los nodos de S, se denomina la frontera de S y se denota por Frn(S). (Castillo, 1996) Definición 30: Numeración perfecta. Una numeración de los nodos de un grafo, α, se denomina perfecta si el subconjunto de nodos. Frn(α(i)) ∩ { α(1),….., α(i-1)} es completo para i=2,….,n. (Castillo, 1996). Algoritmo 1.1 Búsqueda de máxima cardinalidad. Datos: Un grafo no dirigido G = (X,L) y un nodo inicial Xi. Resultado: Una numeración α de los nodos de X. 1. Iniciación: Asignar el primer número al nodo inicial, es decir, α(1) =Xi. 2. Repetir la etapa siguiente con i = 2, . . . , n. 3. Iteración i: En la i-ésima etapa de iteración, se asigna el número i a un nodo que no haya sido numerado previamente y que tenga el máximo número de vecinos numerados. Los empates se resuelven de forma arbitraria.(Castillo, 1996). Algoritmo 1.2 Triangulación de máxima cardinalidad. Datos: Un grafo no dirigido G = (X, L) y un nodo inicial Xi. Resultado: Un conjunto de nuevas aristas L_, tal que, G_ = (X, L, L_) sea triangulado. Etapa de Iniciación: 1. Inicialmente la nueva lista de aristas es vacía, L_ = φ. 2. Sea i = 1 y asígnese el primer número de la numeración al nodo inicial Xi, es decir, α(1) = Xi. Etapa de Iteración: 3. Se asigna el número i a un nodo Xk no numerado con máximo número. 32.

(33) Capítulo 1 de vecinos numerados, α(i) = Xk. 4. Si Vec(Xk)∩{α(1), . . . , α(i-1)} no es un conjunto completo, añadir a L_ las aristas necesarias para completar el conjunto y volver a la Etapa 2; en caso contrario, ir a la Etapa 5. 5. Si i = n, el algoritmo finaliza; en caso contrario, asignar i = i + 1 e ir a la Etapa 3. (Castillo, 1996). Algoritmo 1.3 Generación de una cadena de conglomerados. Datos: Un grafo triangulado no dirigido G = (X,L). Resultado: Una cadena de conglomerados (C1, . . . , Cm) asociada a G. 1. Iniciación: Elegir cualquier nodo como nodo inicial y utilizar el Algoritmo 4.1 para obtener una numeración perfecta de los nodos, X1, . . . , Xn. 2. Determinar los conglomerados del grafo, C. 3. Asignar a cada conglomerado el máximo de los números (correspondientes a la numeración perfecta) de sus nodos. 4. Ordenar los conglomerados, (C1, . . . , Cm), en orden ascendente de acuerdo a los números asignados (deshacer empates de forma arbitraria). (Castillo, 1996). 1.4.4) Grafos agrupados Los grafos agrupados son formados por la agrupación de algunos de los nodos, con características comunes, en el grafo dado. Este proceso se conoce como agrupamiento, y permite obtener nuevos grafos con estructuras simples que retienen esencialmente propiedades topológicas del grafo original. Definición 31: Grupo. Un conjunto de nodos de un grafo se llama grupo.(Linares, 2000). 33.

(34) Capítulo 1 Definición 32: Grafo agrupado asociado con un grafo. Dado un grafo G = (X, L) y un conjunto de grupos de X, C = {C1,…,Cm}, tal que X = C1 ∪ …∪ Cm, entonces el grafo G’=(C, L’) se llama grafo agrupado de G si L’ contiene solamente conexiones entre grupos que contienen nodos comunes, esto es, (Ci, Cj) ∈ L’ ⇒ Ci ∩ Cj ≠ ∅. (Linares, 2000) Se va a considerar un tipo especial de grafo agrupado que satisfaga ciertas propiedades deseables. Definición 33: Grafo de conglomerados. Un grafo agrupado se llama grafo de conglomerados si sus grupos son los conglomerados del grafo asociado. (Linares, 2000) Definición 34: Grafo de unión. Un grafo de conglomerados asociado a un grafo no dirigido se llama unión de grafos si este contiene todas las posibles conexiones uniendo dos conglomerados con un nodo común. (Linares, 2000) Definición 35: Árbol de Unión. Un grafo de conglomerados se llama un árbol de unión si es un árbol y si cada nodo que pertenece a dos grupos también pertenece a cada grupo en el camino entre ellos. (Linares, 2000). Algoritmo 1.4: Generación de un árbol de unión. Entrada: un grafo no dirigido triangulado G = (X, L). Salida: un árbol de unión G’ = (C, L’) asociado a G. 1. Inicialización: Usar el algoritmo 4.3 para obtener una cadena de conglomerados del grafo G, {C1,…, Cm}. 2. Para cada conglomerado Ci ∈ C, escoger entre {C1,…,Ci-1} un conglomerado Ck con un número máximo de nodos comunes y adicionar la conexión Ci − Ck a L’ (inicialmente vacío). Romper los empates arbitrariamente.(Castillo, 1996) Definición 36: Árbol de Familias. Un árbol de familias de un grafo dirigido D es un árbol de unión de algún grafo no dirigido G asociado a G en el cual la familia de cada nodo está contenida en al menos un grupo.. 34.

(35) Capítulo 1 Algoritmo 1.5: Generación de un árbol de familias. Entrada: un grafo dirigido D = (X, L). Salida: un árbol de familias G’ = (C, L’) asociado a D. 1. Moralizar el grafo dirigido D. 2. Triangular el grafo no dirigido resultante usando el algoritmo 4.2 3. Aplicar el algoritmo 4.4 para calcular un árbol de unión del grafo resultante.(Castillo, 1996). 1.5). Conclusiones parciales. Partiendo de la revisión bibliográfica realizada se pudo arribar a las siguientes conclusiones: 1. La EAC ha tenido gran repercusión en el desarrollo del proceso de enseñanza/aprendizaje, produciendo un revolucionario cambio en los métodos de enseñanza tradicionales, permitiendo que los métodos y medios de enseñanza sean más efectivos y personalizados. 2. La IA aplicada a la educación ha permitido construir sistemas computacionales para la enseñanza que tengan un comportamiento inteligente conocidos como SEAI, los cuales facilitan analizar en cada momento el comportamiento del estudiante para caracterizar su actuación y decidir cuál es la estrategia de aprendizaje más adecuada a aplicar. Su componente fundamental se denomina Modelo del Estudiante. 3. Los MC constituyen una técnica eficaz para guiar al estudiante en el proceso de aprendizaje, pues ofrece una estructura jerárquica y organizada de los contenidos en forma de conceptos, así como las relaciones que existen entre los mismos.. 35.

(36) Capítulo 2. CAPÍTULO 2: IMPLEMENTACIÓN DE MACBAY VERSIÓN 1.0 En este capítulo se enuncian varias definiciones que son importantes para la compresión de la teoría de Redes Bayesianas, así como del algoritmo de propagación de la evidencia que utiliza la herramienta MacBay, de la cuál se dará una descripción de las consideraciones que se tuvieron en cuenta para su implementación.. 2.1) Implementación del Modelo del Estudiante usando Redes Bayesianas. En este epígrafe se aborda de forma general la teoría de las Redes Bayesianas, las cuales constituyen una de las clases más importantes de los modelos de dependencias (Castillo), y su relación con el Modelo del Estudiante, exponiéndose las principales ventajas que estas aportan al mismo.. 2.1.1) Redes Bayesianas. Definición 37: Modelo de red bayesiana. Un modelo de Red Bayesiana (RB), o simplemente una RB, es un par (D, P), donde D es un Grafo Acíclico Dirigido (GAD),. P= {p(x1 | π1),…, p(xn | πn)} es un conjunto de n. funciones de probabilidad condicionada, una para cada variable, y Πi es el conjunto de padres del nodo Xi en D. El conjunto P define una función de probabilidad asociada mediante la factorización: n. p ( x ) = ∏ p ( xi | π i ). i =1. (Castillo, 1996). Definición 38: Red Bayesiana Multinomial. Una RB multinomial es aquella que se supone que todas sus variables son discretas, es decir, que cada variable puede tomar únicamente un conjunto finito de valores, además en este tipo de redes también se supone que la función de probabilidad condicionada asociada a cada variable es una función de probabilidad de tipo multinomial (Castillo, 1996).. 36.

(37) Capítulo 2 Definición 39: Red Bayesiana Normal En una red Bayesiana Normal o Gausiana, se supone que las variables del conjunto X están distribuidas por medio de una distribución normal N ( μ , Σ) dada por la función de densidad: f ( x) = (2π ) − n / 2 | Σ | −1 / 2 exp{−1 / 2( x − μ ) T Σ − 1( x − μ )} donde μ es el vector n-dimensional de medias, Σ es la matriz nxn de covarianzas, | Σ | es el determinante de Σ , y μ T denota la traspuesta de μ (Castillo, 1996).. En esta herramienta los posibles valores que puede tener un estudiante como calificación en un tema son: 2, 3, 4, 5. Como este conjunto de valores es discreto se utiliza una RB multinomial. 2.1.1.1). Propagación exacta en modelos de redes probabilísticas. Cuando la base de conocimientos está definida, una de las tareas principales de un sistema experto es llegar a conclusiones cuando una nueva información, o evidencia, es observada. Por ejemplo, en el campo de la medicina, la tarea más importante del sistema experto consiste en obtener el diagnóstico para un paciente que presente algún síntoma (evidencia). El mecanismo de llegar a conclusiones en un sistema experto probabilístico se llama propagación de la evidencia, o simplemente propagación. Este proceso es realizado en la herramienta Macbay. mediante la realización de. cuestionarios, que están asociados a conceptos (temas) del MC que constituye el Sistema de Enseñanza. Los estudiantes deben responder estos cuestionarios para saber cuál ha sido su desempeño en dichos temas. El resultado obtenido se considera como evidencia para a partir de ella realizar la propagación de la misma, permitiéndoles a los estudiantes conocer la probabilidad que tienen de vencer temas que no pertenecen a la evidencia y permite guiar la navegación por el MC, pues los nodos correspondientes a los temas que los estudiantes han vencido cambian de apariencia para indicarle que puede pasar a estudiar otro tema.. 37.

(38) Capítulo 2 Existen tres tipos de algoritmos para la propagación de la evidencia: exacta, aproximada, y simbólica. Algoritmo de propagación exacta: Es un método que, además de calcular los errores de precisión o de redondeo, calcula la distribución de probabilidad de los nodos exactamente. Algoritmo de propagación aproximada: Son aquellos que calculan las probabilidades aproximadamente. Estos métodos son usados en casos donde no existan algoritmos exactos para el modelo probabilístico de interés o donde los algoritmos exactos sean computacionalmente complejos. Algoritmo de propagación simbólica: Son aquellos que trabajan no solamente con valores numéricos, sino también con parámetros simbólicos. En este epígrafe se describe el algoritmo de propagación en Árboles de Unión que es considerado un método exacto. Este algoritmo se utiliza para llevar a cabo el proceso de propagación de la evidencia en la herramienta MacBay.. 2.1.1.2). Propagación de la evidencia. La propagación de la evidencia permite que las interrogantes sean resueltas cuando se ha observado una nueva evidencia. Suponga que se tiene un conjunto de variables discretas X={X1, …, Xn} y una función de probabilidad, p(x), sobre X. Antes de que cualquier evidencia sea disponible, el proceso de propagación consiste en calcular la Distribución de Probabilidad Marginal (DPM) p(Xi = xi), o simplemente p(xi), para cada Xi ∈ X, la cual da la información de las variables presentes en el modelo antes de que se observe cualquier evidencia. Ahora, suponga que alguna evidencia se ha hecho disponible, esto es, un conjunto de variables E ⊂ X que se conocen que toman los valores Xi = ei, para Xi ∈ E. Las variables en E son variables evidenciales.. 38.

(39) Capítulo 2 Definición 40: Variable evidencial. El conjunto de variables E ⊂ X que se conoce tiene ciertos valores E = e en una situación dada se llama variables evidenciales. El resto de las variables, X \ E, se les conoce como variables no evidenciales, donde X \ E denota las variables en X excluyendo las variables en E (Linares, 2000) . La propagación de la evidencia consiste en calcular las probabilidades condicionales p(xi |e) para cada variable no evidencial Xi dada la evidencia E = e. Cuando no existe evidencia (E = ∅), la probabilidad condicional p(xi | e) es simplemente la DPM p(xi). Una forma de calcular p(xi | e) es usar la fórmula de probabilidad condicional (3) y obtener. p (xi | e ) =. p (xi , e ) ∝ p (xi , e ) p (e ). (11). donde la constante de proporcionalidad es 1 / p(e). Así, para calcular p(xi | e), se tiene que calcular y normalizar p(xi, e). Ahora, p(xi, e) puede ser calculado por. p(xi , e) =. ∑ p (x ,K, x ). x\{xi ,e}. e. 1. n. (12). donde pe(x1,…, xn) es igual que p(x1,…, xn) con los valores de las variables evidénciales E fijado a la evidencia observada e. Así para calcular p(xi, e), se necesita sumar pe(x1,…,xn) sobre todas las variables no evidénciales excepto Xi. Para el caso de no evidencia, (12) se reduce a:. p(xi ) = ∑ p(x1 ,K, xn ) .. (13). x\ xi. Claramente, este método de fuerza bruta se pone cada vez más ineficaz al tratar con un número grande de variables. Para variables binarias, (13) requiere la suma de 2n-1 diferentes probabilidades. El tiempo del cálculo para calcular p(xi) aumenta de forma exponencial con n variables, esto hace al método computacionalmente ineficiente y en algunos casos insoluble. En las ecuaciones (12) y (13) no se toma en cuenta la estructura de independencia contenida en la función de probabilidad, p(x). Teniendo en cuenta las distintas relaciones de independencia entre las variables de la función de probabilidad p(x), el número de cálculos necesarios en el proceso de propagación puede ser reducido significativamente.. 39.

(40) Capítulo 2 A continuación se describe un algoritmo de propagación que utiliza esa estructura de independencia, el cual fue empleado en el presente trabajo de diploma.. 2.1.1.3). Propagación usando árboles de unión. El algoritmo de agrupamiento (Castillo, 1996) agrupa los nodos de una red en conglomerados para obtener una estructura local conveniente para propagar la evidencia, sin embargo existen algunas mejoras de este algoritmo de agrupamiento. Por ejemplo, el "belief universes method" introducido por Jensen, Olesen y Andersen, transforma la red múltiplemente conectada en un árbol de unión asociado con el grafo. El método también provee las operaciones básicas de distribución de la evidencia y colección de la evidencia, los cuales se necesitan para propagar la misma entre los conglomerados del árbol. Esta sección presenta un algoritmo de propagación que se basa en el paso de mensajes en árboles de unión. Como el algoritmo de agrupamiento, este método es aplicable a los modelos de redes markovianas (Castillo, 1996) y bayesianas. El método se referencia como Algoritmo de Propagación en Árboles de Unión.. Algoritmo de Propagación en Árboles de Unión: Dado el GAD de la figura 6, se puede aplicar el Algoritmo 4.5 para obtener un árbol de familias. Esto garantiza la existencia de la representación potencial del grafo no dirigido resultante definido por las DPCO asociadas con el GAD.. Figura 6. Un GAD múltiplemente conectado.. 40.

(41) Capítulo 2. Figura 7. Grafo no dirigido asociado al grafo dirigido de la figura 6. Los separadores (Sij) dados por la cadena de conglomerados C se muestran gráficamente como la intercepción de los conglomerados adyacentes en el árbol de unión. Si los conglomerados Ci y Cj son vecinos en un árbol de unión, se definen sus conjuntos separadores Sij, o Sji como Sij = Ci ∩ Cj. Por ejemplo, dado el árbol de unión de la figura 8, los tres posibles conjuntos separadores son S12=C1∩ C2 = {B, C}, S23 = {B}, y S24 = {C}, como se muestra en la figura 9.. Figura 8. Árbol de unión asociado con el grafo no dirigido de la figura 7.. Figura 9. Conjuntos separadores de un árbol de unión Asumiendo que no existe evidencia E = ∅ se harán los siguientes cálculos: • Calcular los mensajes entre los conglomerados del árbol de unión. • Calcular la DPC de cada conglomerado usando estos mensajes. • Marginalizar la DPC de un conglomerado que contiene a Xi sobre todas las otras variables distintas de Xi.. 41.

(42) Capítulo 2 Los cálculos locales se calculan en forma de mensajes y se propagan por el árbol de unión por paso de mensajes similar a como se hace en el algoritmo para poliárboles (Castillo, 1996) . Para ilustrar este proceso, suponga que un conglomerado Ci tiene q conglomerados vecinos {B1,…, Bq}. Cij y Xij denotan el conjunto de conglomerados y el conjunto de nodos del subárbol que contiene al conglomerado Ci cuando se elimina la conexión Ci − Bj, respectivamente. El conjunto Xij es simplemente la unión de los conglomerados contenidos en Cij. Para calcular la DPC de un conjunto separador Sij, se necesita descomponer el conjunto X \ Sij como:. X \ S ij = (X ij ∪ X ji ) \ S ij = (X ij \ S ij ) ∪ (X ji \ S ij ) = Rij ∪ R ji. ,. donde Rij = Xij \ Sij es el conjunto de nodos contenidos en el lado Ci pero no en el Bj de la conexión Ci − Bj en el árbol de unión. Cada nodo contenido en dos conglomerados diferentes del árbol de unión también está contenido en el camino que une a esos conglomerados, los únicos nodos en común entre Xij y Xji tienen que estar contenidos en el conjunto de separación Sij. Por consiguiente, Rij y Rji son subconjuntos disjuntos. Este hecho se usa para obtener la DPC del conjunto de separación Sij por p(sij ) = ∑∏ψ k (ck ) m. x \ sij k =1. =. m. ∑ ∏ψ (c ). rij ∪rji k =1. k. k. ⎞ ⎞⎛ ⎛ = ⎜ ∑ ∏ψ k (ck )⎟⎜ ∑ ∏ψ k (ck )⎟ ⎟ ⎟⎜ r c ∈C ⎜ r c ∈C ⎠ ⎠⎝ ji k ji ⎝ ij k ij. = M ij (sij )M ji (sij ) ,. donde M ij (sij ) = ∑ ∏ψ k (ck ). (14). rij ck ∈Cij. si el mensaje se envía del conglomerado Ci al conglomerado vecino Bj y B. M ji (sij ) = ∑ ∏ψ k (ck ). (15). r ji ck ∈C ji. 42.

(43) Capítulo 2 es el mensaje enviado del conglomerado Bj al conglomerado Ci y ψk está dada por la siguiente definición. Definición 41: Factorización de la DPC por potencias. Sean C1,…, Cm subconjuntos de un conjunto de variables X = {X1,…,Xn}. Si la DPC de X1,…, Xn puede ser escrita como un producto de m funciones no negativas ψi (i = 1, …, m), esto es, m. p(x1 ,K, xn ) = ∏ψ i (ci ) ,. (Linares, 2000). i=1. donde ci es la realización de Ci. Las funciones ψi se llaman factores potenciales de la DPC . La DPC del conjunto separador Sij sencillamente es el producto de esos dos mensajes. La información necesaria para calcular cada uno de esos mensajes está contenida en diferentes lados de la conexión Ci − Bj en el árbol. Así, estos mensajes recogen la información que viene de un lado del enlace y lo propagan al otro lado. Para calcular la DPC de un conglomerado Ci, se descompone primero el conjunto X \ Ci acorde a la información que llega de los diferentes conglomerados vecinos: q q ⎛q ⎞ X \ Ci = ⎜⎜ U X ki ⎟⎟ \ Ci = U( X ki \ Ci ) = U Rki . k =1 k =1 ⎝ k =1 ⎠. Entonces la DPC de Ci puede escribirse como. p(ci ) = ∑∏ψ j (c j ) m. x\ci j =1. = ψ i (ci )∑∏ψ j (c j ) x \ci j ≠i. ∑ ∏ψ (c ). = ψ i (ci ). r1i ∪K∪rqi j ≠i. j. j. ⎞ ⎛ ⎞ ⎛ = ψ i (ci )⎜⎜ ∑ ∏ψ k (ck )⎟⎟ K⎜ ∑ ∏ψ k (ck )⎟ ⎜ ⎟ ⎝ r1i ck ∈C1i ⎠ ⎝ rqi ck ∈Cqi ⎠. = ψ i (ci )∏ M ji (sij ), q. (16). j =1. donde Mji(sij) es el mensaje enviado desde el conglomerado Bj al conglomerado Ci como se B. definió en (15). 43.

(44) Capítulo 2. Una vez que todos los posibles mensajes entre los conglomerados han sido calculados, la DPC de los conglomerados se puede obtener usando (16). El cálculo de los mensajes Mij(sij) usando (14) implica una suma sobre el conjunto Xij \ Sij. Este cálculo puede ser simplificado considerando la descomposición. ⎛ ⎞ X ij \ S ij = (Ci \ S ij ) ∪ ⎜⎜ U X ki \ S ki ⎟⎟ . ⎝ k≠ j ⎠ Así se obtiene la siguiente relación de recurrencia entre mensajes:. M ij (sij ) =. ∑ ∏ψ (c ) s. s. xij \ sij cs∈Cij. =∑. ∑ ∏ψ (c ). ci \ sij ( xki \ ski ),k ≠ j cs∈Cij. = ∑ψ i (ci )∏ ∑ ci \ sij. s. s. ∏ψ (c ) s. s. k ≠ j xki \ ski cs∈Cki. = ∑ψ i (ci )∏ M ki (ski ) . ci \ sij. k≠ j. (17). Finalmente, las probabilidades condicionadas de cualquier nodo Xi pueden ser calculadas marginalizando la DPC de cualquier conglomerado que contiene a Xi. Si el nodo pertenece a más de un conglomerado, el conglomerado de menor tamaño se usa para minimizar el número de cálculos a realizar. Se introducirá ahora un nuevo concepto necesario en el caso de que exista evidencia. Al proceso de modificar las funciones potenciales originales sustituyendo los valores observados de las variables evidénciales se le llama absorción de la evidencia. Las formas de absorción de la evidencia abordadas por (Castillo, 1996) son: 1. Mantener los mismos conjuntos de nodos X y conglomerados C. Se modifican las funciones potenciales que contienen nodos evidénciales en la siguiente forma: para. 44.

(45) Capítulo 2 cada conglomerado Ci que contenga algún nodo evidencial la nueva función potencial ψi* (ci) se define como ⎧ 0,. ψ i* (ci ) = ⎨ ⎩ψ i (ci ),. si algún valor en ci es inconsistente con e, en otro caso,. (18). Para el resto de los conglomerados, ningún cambio es necesario. Entonces se tiene m. p ( x | e ) ∝ ∏ψ i* (ci ) . i =1. Eliminar de X los nodos evidenciales. Este proceso también implica modificar el conjunto de conglomerados y la representación potencial. 2. La nueva representación potencial, (C * ,ψ * ) , está definida en X*, donde X* = X \ E, C*. es el nuevo conjunto de conglomerados y ψ * son los nuevos potenciales,. que contienen la evidencia, y que han sido obtenidos de la forma siguiente: Para cada conglomerado Ci contenido en C tal que Ci ∩ E ≠ ø, se incluye el conjunto Ci \ E en C* y se define:. ψ i* (C i* ) = ψ i (C i \ e, E = e). (19). Para el resto de los conglomerados que no contienen nodos evidenciales, no es necesario realizar ninguna modificación en las representaciones potenciales correspondientes. Con ello, se tiene m. P ( x * | e)α ∏ψ i* (C i ) . i =1. En este sistema se utilizo la ecuación (18) para el proceso de la absorción de la evidencia. Después de que la evidencia E = e ha sido absorbida en las funciones potenciales, para calcular la DPCO p(xi |e) de un nodo no evidencial Xi dada la evidencia E = e, se hacen los mismos cálculos que para cuando no hay evidencia.. 45.

(46) Capítulo 2 Algoritmo 2.1 Propagación en redes de Markov utilizando un árbol de unión. Datos: Una Red de Markov (C ,ψ ) definida sobre un conjunto de variables X y una evidencia E=e. Resultado: La función de probabilidad condicionada p(xi | e) para cada nodo Xi ≠ E. Etapa de Iniciación: 1. Absorber la evidencia en las funciones potenciales ψ utilizando (18) ó (19). 2. Utilizar el algoritmo 4.4 para obtener un árbol de unión de la Red de Markov Etapa Iterativa: 3. Para i = 1,…,m hacer: Para cada vecino Bj del conglomerado Ci, si Ci ya recibió B. mensajes de todos sus vecinos, calcular y enviar el mensaje Mij(sij) a Bj, donde B. M ij (sij ) = ∑ψ i (ci )∏ M ki (ski ) k≠ j. ci \ sij. (20). 4. Repetir el paso 3 hasta que no se obtenga ningún mensaje. 5. Calcular la función de probabilidad de cada C utilizando:. p(ci ) = ψ i (ci )∏ M ki (sik ). (21). k. 6.. Para cada nodo de la red Xi calcular, p(xi|e) utilizando:. p (x i | e ) =. ∑ p (c ) k. c k \ xi. (22). donde Ck es el conglomerado menor que contiene a Xi.. (Castillo, 1996). En el paso 3 del algoritmo, existen tres casos posibles para cada conglomerado Ci: •. Caso 1: Ci recibe los mensajes de todos sus vecinos. En este caso, Ci puede calcular y enviar mensajes a cada uno de sus vecinos.. •. Caso 2: Ci recibe los mensajes de todos sus vecinos excepto de Bj. En este caso, B. Ci solo puede calcular y enviar un mensaje a Bj. B. •. Caso 3: Ci no ha recibido mensajes de dos o más de sus vecinos. En este caso, ningún mensaje puede ser calculado.. 46.

Figure

Figura 3. Ejemplo de conglomerados asociados a un grafo.

Figura 3.

Ejemplo de conglomerados asociados a un grafo. p.29
Figura 4. Un ejemplo de (a) un grafo dirigido, (b) el grafo no dirigido asociado, y  (c) el grafo moralizado asociado

Figura 4.

Un ejemplo de (a) un grafo dirigido, (b) el grafo no dirigido asociado, y (c) el grafo moralizado asociado p.30
Figura 2.1 Curso del tema Planificación de la CPU en la asignatura Sistema Operativo.

Figura 2.1

Curso del tema Planificación de la CPU en la asignatura Sistema Operativo. p.53
Figura 2.4 Respuesta de un estudiante a la segunda pregunta del  cuestionario asociado al  concepto FCFS

Figura 2.4

Respuesta de un estudiante a la segunda pregunta del cuestionario asociado al concepto FCFS p.54
Figura 2.3 Respuesta de un estudiante a la primera pregunta del  cuestionario asociado al  concepto FCFS

Figura 2.3

Respuesta de un estudiante a la primera pregunta del cuestionario asociado al concepto FCFS p.54
Figura 2.6 Representa los cambios producidos en el MC después de haberse respondido el  cuestionario asociado al concepto Round Robin

Figura 2.6

Representa los cambios producidos en el MC después de haberse respondido el cuestionario asociado al concepto Round Robin p.55
Figura 2.5 Representa los cambios producidos en el MC después de haberse respondido un  cuestionario

Figura 2.5

Representa los cambios producidos en el MC después de haberse respondido un cuestionario p.55
Figura 2.7 Resultados cuantitativos del estudiante en cada tema del curso.

Figura 2.7

Resultados cuantitativos del estudiante en cada tema del curso. p.56
Figura 2.8 Muestra las sugerencias que la herramienta hace al estudiante para mejorar su  desempeño en la asignatura

Figura 2.8

Muestra las sugerencias que la herramienta hace al estudiante para mejorar su desempeño en la asignatura p.56
Figura 2.9 Listado de estudiantes del curso Planificación de la CPU.

Figura 2.9

Listado de estudiantes del curso Planificación de la CPU. p.57
Figura 2.10 Muestra los resultados obtenidos por uno de los estudiantes matriculados en  el curso

Figura 2.10

Muestra los resultados obtenidos por uno de los estudiantes matriculados en el curso p.57
Figura 2.12 Recomendaciones del profesor para Roberto.

Figura 2.12

Recomendaciones del profesor para Roberto. p.58
Figura 2.11 Ventana en la que el profesor ve los resultados del estudiante de forma  cualitativa

Figura 2.11

Ventana en la que el profesor ve los resultados del estudiante de forma cualitativa p.58
Figura 3.1 Ventana Principal

Figura 3.1

Ventana Principal p.60
Figura 3.3 Ventana Principal con diferente apariencia

Figura 3.3

Ventana Principal con diferente apariencia p.61
Figura 3.7 Ventana principal cuando insertamos un concepto en forma rectangular.

Figura 3.7

Ventana principal cuando insertamos un concepto en forma rectangular. p.63
Figura 3.8  Propiedades del concepto.

Figura 3.8

Propiedades del concepto. p.63
Figura 3.10 Resultado de aplicar cambios en las propiedades de un nodo (concepto).

Figura 3.10

Resultado de aplicar cambios en las propiedades de un nodo (concepto). p.64
Figura 3.9 Cambio de propiedades a un concepto.

Figura 3.9

Cambio de propiedades a un concepto. p.64
Figura 3.12 Propiedades de la plantilla.

Figura 3.12

Propiedades de la plantilla. p.65
Figura 3.14 Ventana que se muestra a la hora de salvar lo que tenemos hecho.

Figura 3.14

Ventana que se muestra a la hora de salvar lo que tenemos hecho. p.66
Figura 3.17 Asistente para crear el Mapa Conceptual.

Figura 3.17

Asistente para crear el Mapa Conceptual. p.68
Figura 3.19 Ventana para crear enlaces (palabras-enlaces).

Figura 3.19

Ventana para crear enlaces (palabras-enlaces). p.69
Figura 3.24 Ejemplo de inicio de creación de un cuestionario.

Figura 3.24

Ejemplo de inicio de creación de un cuestionario. p.72
Figura 3.25 Preguntas.

Figura 3.25

Preguntas. p.72
Figura 3.26 Ejemplo de creación de una pregunta de tipo Verdadero o Falso.

Figura 3.26

Ejemplo de creación de una pregunta de tipo Verdadero o Falso. p.73
Figura 3.35 Reporte cualitativo de un estudiante determinado.

Figura 3.35

Reporte cualitativo de un estudiante determinado. p.77
Figura 3.38  El resultado de abrir un curso determinado.

Figura 3.38

El resultado de abrir un curso determinado. p.79
Figura 3.39 Menú Opciones.

Figura 3.39

Menú Opciones. p.79
Figura 3.42 Menú contextual  asociado con conceptos.

Figura 3.42

Menú contextual asociado con conceptos. p.81

Referencias

Actualización...

Outline : MANUAL DE USUARIOS