• No se han encontrado resultados

UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERÍA

N/A
N/A
Protected

Academic year: 2023

Share "UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERÍA"

Copied!
164
0
0

Texto completo

(1)

UNIVERSIDAD NACIONAL DE TRUJILLO

FACULTAD DE INGENIERÍA

ESCUELA PROFESIONAL DE INGENIERÍA DE SISTEMAS

Implementación de un Datamart para la dinamización en la toma de decisiones de la gestión financiera de la empresa YOMIQUI S.A.C.

TESIS PROFESIONAL PARA OPTAR EL TITULO DE INGENIERO DE SISTEMAS

AUTORES :

Bach. Carranza De la cruz, Rosita Milagros Bach. Silva Soplin, Sergio Sandro Sebastian

ASESOR :

Dr. Mendoza Rivera, Ricardo Darío

LÍNEA DE INVESTIGACIÓN :

Gestión de Desarrollo de Software

TRUJILLO - PERÚ 2021

(2)

2

JURADO DICTAMINADOR

Ing. Juan Pedro Santos Fernández Presidente

Ing. Alberto Mendoza De los santos Secretario

Dr. Ricardo Mendoza Rivera Vocal

(3)

DEDICATORIA

Agradezco a Dios por darme la fuerza necesaria para perseguir mis sueños a pesar de las adversidades.

A mis abuelitos, que me enseñaron a luchar para ser mejores y por lo que uno quiere.

A mis padres, mi hermana, por su apoyo incondicional en todo el proceso, a ellos que son el motor y motivo de todo lo que hago.

Rosita Milagros

(4)

DEDICATORIA

A Dios, por brindarme salud y fortaleza para seguir adelante aun en momentos difíciles.

Por bendecirme con una maravillosa familia y otorgarme bienestar espiritual.

A mis padres, mis hermanos, por su apoyo y guía incondicional en todo momento, a ellos que siempre se esforzaron por mi bienestar y crecimiento profesional.

Sergio Sandro Sebastian

(5)

AGRADECIMIENTOS

A la empresa Yomiqui S.A.C. por su confianza, por brindarnos las facilidades de poder acceder a toda la información necesaria para el éxito de este proyecto.

A la Universidad Nacional de Trujillo, nuestra alma mater que con sus enseñanzas han permitido realizar este proyecto.

A todas las personas, que formaron parte de este proyecto, que fueron nuestro apoyo incondicional.

Los autores

(6)

6

INDICE

CAPÍTULO I INTRODUCCIÓN ... 17

CAPITULO II MATERIALES Y MÉTODO ... 33

2.1. MATERIALES ... 34

2.1.1. Objeto de estudio ... 34

2.1.2. Recursos ... 34

2.1.2.1. Personal ... 34

2.1.2.2. Bienes ... 34

2.1.2.3. Viajes ... 34

2.1.2.4. Servicios... 35

2.1.2.5. Tecnológicos ... 35

2.2. MÉTODO ... 36

2.2.1. Tipo de investigación ... 36

2.2.1.1. De acuerdo a la orientación ... 36

2.2.1.2. De acuerdo a la técnica de contrastación ... 36

2.2.2. Nivel de la investigación ... 36

2.2.3. Diseño de investigación ... 36

2.2.4. Población, muestra y muestreo ... 37

2.2.4.1. Población ... 37

2.2.4.2. Muestra ... 38

2.2.4.3. Muestreo ... 39

2.2.5. Variables ... 39

2.2.5.1. Tipo ... 39

2.2.5.2. Operacionalización ... 39

2.2.6. Técnicas e instrumentos, validación y confiabilidad ... 41

2.2.6.1. Técnicas e Instrumentos... 41

2.2.6.2. Validación y Confiabilidad ... 41

2.2.7. Método de análisis de datos ... 41

2.2.8. Procedimiento ... 41

2.2.9. Consideraciones Éticas ... 42

CAPITULO III RESULTADOS ... 43

3.1. Fase I: Planificación del Proyecto ... 44

(7)

7

3.2. Fase II: Definición de los Requerimientos del Negocio ... 46

3.2.1. Identificación de fuentes de información ... 46

3.2.2. Revisión de la base de datos de la empresa Yomiqui S.A.C ... 47

3.2.3. Requerimientos funcionales ... 48

3.2.4. Requerimientos no funcionales ... 48

3.2.5. Análisis Dimensional Inicial ... 50

3.3. Fase III: Modelamiento Dimensional ... 56

3.3.1. Declaración de Granularidad... 56

3.3.2. Definiendo dimensiones ... 57

3.3.3. Definiendo tabla hechos ... 61

3.3.4. Diseño dimensional a implementar ... 63

3.4. Fase IV: Diseño Físico ... 64

3.4.1. Modelo Físico ... 64

3.4.2. Documentación de la Metadata ... 65

3.5. Fase V: Diseño y desarrollo de la Presentación de Datos ... 68

3.5.1. Estrategia de poblamientos ... 68

3.5.2. Conexiones... 71

3.5.3. Configuración de dimensiones ... 71

3.5.4. Configuración de los hechos ... 76

3.6. Fase VI: Diseño de la Arquitectura técnica ... 77

3.6.1. Definición de la arquitectura tecnológica ... 77

3.6.2. Definición de los perfiles de usuario ... 78

3.6.3. Estrategia de backups ... 79

3.7. Fase VII: Selección e instalación del producto (Creación de Cubos) ... 79

3.8. Fase VIII: Especificación y Desarrollo de la Aplicación del usuario final ... 79

3.8.1. Creación de una conexión con la base de datos analíticos ... 79

3.8.2. Creación del esquema ... 80

3.8.3. Creación de los cubos ... 80

3.8.4. Agregar dimensiones ... 81

3.8.5. Agregar cubo ... 82

3.8.6. Publicación de Esquema en el Servidor de Análisis Pentaho ... 83

3.9. Fase IX: Desarrollo de aplicaciones para usuario finales (Implementación) ... 84

3.9.1. Configuración de los usuarios ... 84

3.9.2. Especificación detallada de la aplicación ... 85

(8)

8

3.10. Fase X: Mantenimiento y crecimiento ... 89

3.11. Fase XI: Despliegue - Revisión ... 89

3.12. Contrastación de la hipótesis ... 89

3.13. Análisis de los indicadores cuantitativos ... 89

3.13.1. Tiempo de generación de reportes de indicadores de la gestión financiera. ... 89

3.13.2. Presupuesto requerido para la generación de reportes con indicadores de la gestión financiera. 98 3.14. Análisis de los indicadores cualitativos ... 106

3.14.1. Nivel de satisfacción de los usuarios con respecto la gestión financiera actual ... 106

3.15. Discusión de resultados ... 113

3.15.1. Indicador cuantitativo – Tiempo de generación de reportes de indicadores de la gestión financiera. 113 3.15.2. Indicador cuantitativo – Presupuesto requerido para la generación de reportes con indicadores de la gestión financiera. ... 114

3.15.3. Indicador cualitativo - Nivel de satisfacción de los usuarios con respecto la gestión financiera actual. 115 CAPITULO IV DISCUSIÓN ... 117

CAPITULO V CONCLUSIONES Y RECOMENDACIONES ... 119

5.1. Conclusiones ... 120

5.2. Recomendaciones ... 121

Referencias ... 122

(9)

9

INDICE DE FIGURAS

Figura 1: Figura Adaptada - Marco de la Inteligencia de Negocios ... 23

Figura 2: Figura adaptada - Relación entre Fuente de Datos y Herramientas de Análisis en la Inteligencia de Negocios ... 24

Figura 3: Figura adaptada - Procesamiento ETL ... 25

Figura 4: Figura adaptada - Fases de la Metodología Ralph Kimball... 26

Figura 5: Figura adaptada - Fases Metodología Bill Inmon ... 27

Figura 6: Figura adaptada - Diagrama de Relación... 29

Figura 7: Figura adaptada - Fases de la Metodología Ralph Kimball... 42

Figura 8: Cronograma de actividades ... 45

Figura 9: Análisis dimensional Inicial ... 49

Figura 10: Hoja de Gestión ... 50

Figura 11: Reporte de ingresos por Forma de pago de los años 2018 y 2019 ... 51

Figura 12: Reporte de ingreso por tipo de producto ... 52

Figura 13: Análisis dimensional final de la gestión de Ingresos ... 55

Figura 14: Análisis dimensional final de la gestión de Egresos ... 56

Figura 15: Diagrama lógico de la fase de Egreso ... 61

Figura 16: Diagrama lógico de la fase de Ingreso ... 62

Figura 17: Diagrama modelo lógico ... 63

Figura 18: Diagrama del modelo físico ... 64

Figura 19: Dimensión Tiempo ... 65

Figura 20: Dimensión Cliente ... 65

Figura 21: Dimensión Acreedor ... 65

Figura 22: Dimensión Local ... 65

Figura 23: Dimensión Servicio/producto ... 66

Figura 24: Dimensión Forma de pago ... 66

Figura 25: Dimensión Vendedor ... 66

Figura 26: Dimensión Tipo gasto ... 66

Figura 27: Hecho Egreso ... 67

Figura 28: Hecho Ingreso ... 67

Figura 29: Proceso ETL Global ... 68

Figura 30: Poblamiento de Dimensiones ... 69

Figura 31: Poblamiento Tabla hecho Ingresos ... 70

Figura 32: Poblamiento Tabla hecho Egresos ... 70

Figura 33: Conexiones con la base de Datos ... 71

Figura 34: Arquitectura tecnológica ... 78

(10)

10

Figura 35: Definición de los perfiles de usuario ... 78

Figura 36: Creación de la conexión a la Base de Datos Analítica ... 79

Figura 37: Creación de Esquema ... 80

Figura 38: Creación de Cubos – Ingreso y Egresos ... 80

Figura 39: Agregar Dimensiones y medidas I ... 81

Figura 40: Dimensiones y medidas II... 82

Figura 41: Agregar Cubos ... 82

Figura 42: Archivo de Esquema contenedor de Cubos ... 83

Figura 43: Carga de Esquema en Servidor OLAP ... 83

Figura 44: Creación de Roles ... 84

Figura 45: Creación de Usuarios ... 84

Figura 46: Asociación Usuarios - Roles ... 85

Figura 47: Inicio de sesión en el Sistema ... 85

Figura 48: Pantalla Principal del Sistema ... 85

Figura 49: Pantalla Selección Vista JPivot ... 86

Figura 50: Vista Reporte con análisis de Ingresos ... 86

Figura 51: Pantalla selección para generación de un Dashboard ... 87

Figura 52: Diseñador de Reportes Gráficos del Dashboard ... 87

Figura 53: Elaboración de Grafico de Barras ... 88

Figura 54: Elaboración de Dashboard Mixto ... 88

Figura 55: Cálculo Prueba z para muestras relacionadas del indicador Tiempo de generación de reportes de indicadores de la gestión financiera ... 97

Figura 56:Región de aceptación y rechazo para la prueba de hipótesis Tiempo degeneración de reportes de indicadores de la gestión financiera ... 97

Figura 57: Cálculo Prueba z para muestras relacionadas del indicador Presupuesto requerido para la generación de reportes de indicadores de la gestión financiera ... 105

Figura 58: Región de aceptación y rechazo para la prueba de hipótesis Tiempo de Automatización de los procesos de extracción y optimización del tiempo de procesamiento de información de gastos e ingresos . 106 Figura 59: Región de aceptación y rechazo para la prueba de hipótesis nivel de satisfacción de los usuarios respecto a la gestión Financiera ... 112

Figura 60: Región de aceptación y rechazo para la prueba de hipótesis nivel de satisfacción de los usuarios respecto a la gestión Financiera ... 113

Figura 61: Validación por juicio de expertos ... 134

Figura 62: Tabla de Distribución Z Normal ... 161

Figura 63: Tabla de Distribución T Student ... 162

(11)

11

INDICE DE TABLAS

Tabla 1: Comparativo OLAP y OLTP ... 28

Tabla 2: Matriz de evaluación general de Metodologías ... 31

Tabla 3: Recursos Humanos del Proyecto ... 34

Tabla 4: Equipos y Mobiliario Disponible ... 34

Tabla 5: Costo de Viajes ... 34

Tabla 6: Costo de Servicios ... 35

Tabla 7: Software Disponible ... 35

Tabla 8: Equipos y Mobiliario Disponible ... 35

Tabla 9: Población para indicador cualitativo ... 37

Tabla 10: Técnicas e instrumentos ... 41

Tabla 11: Detalle de la base de datos transaccional ... 47

Tabla 12: Cuadro de dimensiones vs jerarquías ... 53

Tabla 13: Cuadro de medidas vs Dimensiones ... 53

Tabla 14: Análisis dimensional final ... 54

Tabla 15: Descripción de los atributos de la dimensión Tiempo ... 57

Tabla 16: Descripción de los atributos de la dimensión Cliente ... 57

Tabla 17: Descripción de los atributos de la dimensión Acreedor ... 58

Tabla 18: Descripción de los atributos de la dimensión Local ... 58

Tabla 19: Descripción de los atributos de la dimensión Forma de pago ... 59

Tabla 20: Descripción de los atributos de la dimensión Vendedor... 59

Tabla 21: Descripción de los atributos de la dimensión Servicio/Producto ... 60

Tabla 22: Descripción de los atributos de la dimensión Tipo de gasto... 60

Tabla 23: Descripción de los atributos del hecho Egreso ... 61

Tabla 24: Descripción de los atributos del hecho Ingreso ... 62

Tabla 25: Mapa de la carga de la Dimensión Tiempo ... 71

Tabla 26: Mapa de la carga de la Dimensión Cliente ... 72

Tabla 27: Mapa de la carga de la Dimensión Local... 73

Tabla 28: Mapa de la carga de la Dimensión Acreedor ... 73

Tabla 29: Mapa de la carga de la Dimensión Vendedor ... 74

Tabla 30: Mapa de la carga de la Dimensión Forma de pago ... 74

Tabla 31: Mapa de la carga de la Dimensión Tipo gasto ... 75

Tabla 32: Mapa de la carga de la Dimensión Servicio/Producto ... 75

Tabla 33: Mapa de la carga del Hecho Ingreso ... 76

Tabla 34: Mapa de la carga del hecho Ingreso ... 77

Tabla 35: Plataforma tecnológica ... 79

(12)

12

Tabla 36: Tiempo degeneración de reportes de indicadores de la gestión financiera ... 91

Tabla 37: Presupuesto requerido para la generación de reportes con indicadores de gestión financiera ... 99

Tabla 38: Rangos para los niveles de satisfacción ... 107

Tabla 39: Nivel de satisfacción de los usuarios mediante el proceso actual ... 108

Tabla 40: Nivel de satisfacción de los usuarios mediante el Datamart ... 109

Tabla 41: Resumen del nivel de Satisfacción de los usuarios con el proceso Pre test y Post test ... 110

Tabla 42: Comparación del indicador tiempo de generación de reportes de indicadores de la gestión financiera Antes y Después del Datamart ... 113

Tabla 43: Comparación del indicador presupuesto requerido para la generación de reportes con indicadores de la gestión financiera Antes y Después del Datamart ... 114

Tabla 44: Comparación del indicador Nivel de satisfacción de los usuarios con respecto la gestión financiera actual Antes y Después del Datamart... 115

(13)

13

INDICE DE ECUACIONES

Ecuación 1: Fórmula para la muestra de indicadores cuantitativos ... 38

Ecuación 4: Fórmula para la media de x... 90

Ecuación 5: Fórmula para la desviación estándar ... 90

Ecuación 6: Fórmula para la distribución z normal ... 90

Ecuación 4: Fórmula para la media de x... 98

Ecuación 5: Fórmula para la desviación estándar ... 98

Ecuación 6: Fórmula para la distribución z normal ... 99

Ecuación 8: Peso para los Niveles de aprobación ... 107

Ecuación 9: Calculo de t ... 112

(14)

14

PRESENTACIÓN

Cumpliendo con el reglamento para el desarrollo de Tesis de la facultad de Ingeniería y la Escuela Académico Profesional de Ingeniería de Sistemas de la Universidad Nacional de Trujillo, se pone a su disposición el siguiente trabajo de Tesis titulado “Implementación de un Datamart para la dinamización en la toma de decisiones de la gestión financiera de la empresa Yomiqui S.A.C.”, el que ha sido elaborado con el propósito de obtener el Título de Ingeniero de Sistemas.

La presente investigación ha sido desarrollada, teniendo como base los conocimientos adquiridos en nuestra carrera profesional de Ingeniería de Sistemas, los cuales fueron complementados con la experiencia adquirida a lo largo de nuestra vida laboral, además del apoyo por parte de la empresa Yomiqui, lográndose así culminar con éxito esta investigación.

Esperamos que la presente investigación se convierta en una guía para futuras investigaciones, mostrando la sinergia entre dos tecnologías, que unidas pueden lograr ser una alternativa para distintas problemáticas que se encuentran en diversas empresas.

Rosita Milagros Carranza De la cruz Sergio Sandro Sebastian Silva Soplin

Trujillo, Marzo de 2021

(15)

15

RESUMEN

La presente investigación titulada “Implementación de un Datamart para la dinamización en la toma de decisiones de la gestión financiera de la empresa Yomiqui S.A.C.”, tiene como objetivo apoyar en el proceso de toma de decisiones de la gestión financiera mediante la identificación de los principales problemas y la formulación de una propuesta de solución que sirva de soporte para la adecuada toma de decisiones, que influyan en el desarrollo de la empresa Yomiqui S.A.C.

Realizando un análisis general para cada uno de los procesos existentes dentro del área financiera, se determinó que sus principales problemas radican en la excesiva demora en la obtención de reportes y estadísticas, información vital a nivel estratégico y gerencial de la empresa, siendo así se planteó el desarrollo de un Datamart dentro de la empresa Yomiqui S.A.C.

Para aplicar el desarrollo del Datamart se desarrolló la Metodología de Ralph Kimball, dicho desarrollo se encuentra plasmado en el capítulo II de la presente investigación.

Luego de la implementación del Datamart, estamos seguros que la automatización del procesamiento y extracción de información, así como el tiempo en la elaboración de reportes de gestión será inminente, de la misma manera se mejorará el nivel de satisfacción en los usuarios finales.

Palabras claves: datamart, dinamización para la toma de decisiones, gestión financiera.

(16)

16

ABSTRACT

This research entitled "Implementation of a Datamart for the dynamization in the decision-making of the financial management of the company Yomiqui SAC", aims to support the decision-making process of the financial area by identifying the main problems and problems the formulation of a solution proposal that serves as support for the appropriate decision making, which influences the development of the company Yomiqui SAC.

Performing a general analysis for each of the controlled processes within the financial area, determine what main problems lie in the excessive delay in obtaining reports and statistics, vital information at the strategic and managerial level of the company, thus developing of a Datamart within the company Yomiqui SAC.

To apply the development of Datamart, the Ralph Kimball Methodology will be needed, this development is reflected in Chapter II of the present investigation.

Then, from the implementation of the Datamart, we are sure that the automation of the processing and extraction of information, as well as the time in the preparation of management reports will be imminent, in the same way the level of satisfaction in the end users will be improved.

Keywords: datamart, dynamization for decision making, financial management.

(17)

17

CAPÍTULO I

INTRODUCCIÓN

(18)

18

INTRODUCCIÓN

Se sabe que en el Perú muchas de las empresas hasta la actualidad, no cuentan con sistemas de información que les permita explotar la información que genera su negocio y más aún cuando estas crecen y evolucionan. En las provincias aún hay empresas pequeñas que trabajan solamente con papel y lápiz como se dice coloquialmente a aquellos que gestionan su contabilidad y su negocio sin ningún tipo de apoyo de la tecnología. Debido a ello, se generan así diversos tipos de información que son almacenados sin haber sido analizados, lo que hace que esa información no ayude a la toma de decisiones en las empresas, por lo que es necesario transformar esa data y mostrarla a través de reportes dinámicos o generando Dashboards que permitan ayudar a la toma de decisiones en las distintas áreas de la empresa. Otra es la realidad en países desarrollados, en la que la mayoría de las empresas pequeñas o grandes ya cuentan con sistemas de información o cuentan con Datamarts que les permiten tener una mejor gestión y toma de decisiones para la empresa.

Donde el uso de la tecnología es parte de su cultura.

La realidad problemática de la empresa Yomiqui S.A.C es que en los últimos tres años Yomiqui S.A.C. debido a una mejor posición en el mercado y al incremento de sus ventas, su gestión financiera se ha convertido en una labor tediosa y complicada. Según el estudio realizado por la empresa, esta nueva etapa ha traído consigo algunos retos a los cuales se está enfrentando:

Crecimiento de fuentes de información aisladas, debido al crecimiento de la empresa y al no tener una herramienta tecnológica que pueda sostener esta expansión, Yomiqui S.A.C. se vio en la necesidad de adquirir un sistema comercial 2 años atrás que soporte toda esta gestión, acompañado de una base de datos en donde alojar este volumen de información, esto quiere decir que en la empresa ha nacido una nueva fuente de información aislada además de la información alojada en reportes Excel (condición conocida como Excel caos) e incluso documentación física archivada que en algunos casos se generaban. Eficiencia en la generación de reportes, por el poco tiempo que tiene el sistema comercial, los reportes que se pueden extraer de su base de datos no están dirigidos a realizar un análisis minucioso e individual de las sucursales con las que cuenta la empresa. Estos análisis nos llevarían a poder ver de cerca y con precisión la rentabilidad de las distintas sucursales, a tomar decisiones de suma importancia para el crecimiento de la empresa y a evaluar la gestión de estas. Incertidumbre en la toma de decisiones para la gestión financiera.

Durante el levantamiento de información se verificó que la empresa al contar con diversas fuentes de información como reportes en Excel, documentos en carpetas físicas y al no poder confrontarlas de manera eficiente a través de reportes estratégicos, dificulta la toma decisiones basadas en un análisis real, en reportes o información fiable y sólida. Todo esto trae como consecuencia que

(19)

19

muchas veces la toma de decisiones se realiza de manera intuitiva y no estratégica, dificultando la gestión financiera y administración de la empresa.

Con todos estos retos, proponemos la creación de un Datamart para dar solución a cada uno de ellos y poder dar soporte para la correcta toma de decisiones en la empresa, además de brindar reportes dinámicos, fiables y disponibles en todo momento y en todo lugar. Para mayor detalle se creó un árbol de problemas detallado en el ANEXO I y las entrevistas en el ANEXO G.

Los antecedentes de nuestra investigación son: De investigación local, (Gastañadui Caballero &

Tamayo Avalos, 2016) De la Universidad Nacional de Trujillo realizó la investigación: “Inteligencia de negocios para la dinamización en la toma de decisiones en la gestión contable y presupuestal de la municipalidad de Víctor Larco Herrera”, que de manera de resumen menciona: “Mediante la inteligencia de negocios se logró dinamizar la adecuada toma de decisiones, influyendo en el desarrollo de la municipalidad, utilizando las herramientas de Sql Server 2008 para las operaciones de procesamiento de los datos.” De esta investigación tomaremos como referencia la manera de trabajar la inteligencia de negocios para la gestión contable. Por otro lado en antecedentes de Investigación Nacional, (Rojas Zaldívar, 2014) de la Universidad San Martin de Porres de Chiclayo realizó la investigación: “Implementación de un Datamart como solución de inteligencia de negocios, bajo la metodología de Ralph Kimball para optimizar la toma de decisiones en el departamento de finanzas de la Contraloría general de la república”, que de manera de resumen menciona: “Mediante la implementación de un Datamart poder brindar una herramienta que automatice el procedimiento de explotación de información confiable para la Contraloría general de la Republica, utilizando QlikView como herramienta”. De esta investigación tomaremos como referencia la manera adecuada para la utilización de la metodología Ralph Kimball en la realización de un Datamart.

Finalmente como antecedente de investigación Internacional se tiene (Aimacaña Quilumba, 2013),

del país de Ecuador, realizaron una investigación: “Análisis, diseño e implementación de un Datamart académico usando tecnología de BI para la Facultad de Ingeniería, Ciencias Físicas y Matemática”, que de manera de resumen menciona: “Los Datamart surgen con la promesa del manejo y control de la información, aseguran una vista única de los datos, que pueden provenir de diversas fuentes, utilizando Pentaho como herramienta. De esta investigación tomaremos como referencia la herramienta Pentaho para trabajar con tecnología BI.

En el marco teórico de esta investigación tenemos a los conceptos: Dinamización de Procesos, partiendo de la definición literal del concepto Dinamizar, “Imprimir rapidez e intensidad a un proceso” (Real Academia Española, 2014) se puede establecer la relación entre el dinamismo y la gestión de los procesos que forman parte del desarrollo dentro de una organización o empresa.

(20)

20

Y si continuación ampliamos el concepto a gestión empresarial dinámica, de lo expresado por (Martabit, 2013) se infiere, que las organizaciones y empresas no solo basan su crecimiento en estrategias de mercado, ya que la gestión de procesos de manera ágil y dinámica se vuelve un factor vital para poder cumplir sus objetivos y generar valor se manera constante. Por otro lado, debemos agregar el objetivo de la Contabilidad financiera, para los cual y en base a (Herz Ghersi, 2018), es la obtención de información, pudiéndola ordenar y mostrarla a los interesados en la situación financiera de la empresa, toco esto con la finalidad de una oportuna y correcta toma de decisiones. La contabilidad de gastos e ingresos es la herramienta primordial para verificar el buen estado de salud de una empresa. Lo ideal, y mayormente practicado, es realizar este proceso todos los meses y reforzarlo con un resumen anual, donde vengan anotados desde las ventas y los préstamos hasta los conceptos de alquiler, suministros, imprevistos y otros.

Adicionalmente, se puede incluir a (Calvo, 2018) quién establece, de una manera más concisa, que la contabilidad de gastos e ingresos es el medio para informar si la empresa está ganando dinero.

De manera más específica, también debemos considerar el término Ingresos, por lo que, en base a los definido por (Herz Ghersi, 2018) se puede concluir que los ingresos son el recurso monetario de entrada a la empresa por la transacción de venta de un bien o servicio, ya sea al crédito o en efectivo, por otro lado se debe saber que el ingreso se considera como tal en cuanto se realiza la venta del producto o cuando se realiza la prestación del servicio y no necesariamente cuando se recibe el dinero. Así por otro lado de los ingresos, también contamos con el término Gastos, que es determinado por (Herz Ghersi, 2018) que establece que los gastos son los activos de un negocio que han sido utilizados o consumidos, a fin de obtener ingresos. Existiendo distintos tipos de gastos en el que el salario de los empleados, los impuestos establecidos por el estado, el pago de los servicios como local, teléfono, etc se encuentran incluidos en el. Al realizar la comparación entre gastos e ingresos se podrá definir la ganancia o pérdida de una empresa.

El primordial entender la Diferencia entre gasto y pago (o salida de dinero), para ello podemos involucrar lo establecido por (Tamayo & Raúl, 2012) quien explica que no podemos afirmar que todo gasto nos lleva a realizar un pago en el momento de realizar la operación ya que se podría realizar la negociación de un plazo en el que se efectuará el pago de un servicio consumido. Y no todo pago presupone la realización de un gasto en el momento de la entrega del dinero ya que se puede tratar de un pago aplazado, por motivo de la adquisición de un bien de inversión o de la devolución de una cantidad de dinero recibido en concepto de préstamo.

De forma equivalente a la diferenciación de los términos previamente mencionados, debemos incluir la Diferencia entre ingreso y cobro (o entrada de dinero), en el mismo contexto (Tamayo & Raúl, 2012) refiere que no todo ingreso nos lleva a obtener un cobro en el momento de realizar la

(21)

21

operación ya que, como en el caso de gastos podemos ofrecer financiación aplazando el cobro del importe del servicio realizado. Así como, no todo cobro conlleva la obtención de un ingreso en el momento de la recepción del dinero dado que este hecho puede tener por causa, un cobro aplazado o la devolución de una cantidad entregada en concepto de préstamo.

De manera complementaria tenemos la Diferencia entre gastos y costes, donde, el coste por su parte tampoco debe ser confundido con el gasto. Mientras que este último es el dinero que se va en las compras, el coste es el consumo de los factores productivos que redundarán en una transformación económica. Se podría decir que el gasto es el resultado de sumar el coste más la inversión.

Inteligencia de Negocios (Business Intelligence), según (Gálvez, 2016) es definido como una metodología de gestión que es aplicada mediante el uso de herramientas de software, y cuyo fin primordial es la generación del beneficio de eficiencia y eficacia en los procesos de toma de decisiones sobre todas las áreas de gestión de la empresa. Todo esto siendo logrado en base a la capacidad analítica de las herramientas que son integradas de manera centralizada. De forma equivalente, (Ahumada Tello & Perusquia Velasco, 2016) establece que Inteligencia de Negocios se conceptualiza a partir de la gestión del conocimiento, y es aquí donde se sostienen estrategias que permiten seguir un conjunto de procedimientos que la empresa puede adoptar, y que aportan una ventaja sobre la competencia, especialmente porque el valor agregado a los servicios y productos mediante estos procedimientos y estrategias es un desarrollo eficaz, que de una manera poco probable puede ser llevado a cabo por aquellas empresas que no adoptan o incluyen estos procesos o estrategias.

Otras definiciones para el término, a pesar de tener gran impacto a nivel estratégico empresarial en el transcurso de los últimos años, ha sido definido también ya varios años atrás: En octubre de 1958 Hans Peter Luhn, investigador de IBM, acuño el término en el artículo “A Business Intelligence System” como “La habilidad de aprehender las relaciones de hechos presentados de forma que guíen las acciones hacia una meta deseada.” En 1989 que Howard Dresden, analista de Gartner, propone una definición formal “Conceptos y métodos para mejorar las decisiones de negocio mediante el uso de sistemas de soporte basados en hechos.”

Por otro lado es importante conocer el Alcance e impacto de B.I. en la Gestión de Información, y si seguimos la definición presentada por (Curto Diaz & Conesa Caralt, Introducción al Business Intelligence, 2011) el desarrollo de soluciones basadas en Business Intelligence (Inteligencia de Negocios) brinda información cuyo alcance es: De nivel operativo, en este rubro es utilizado para la toma de decisiones diarias acerca de las transacciones que se realizan al llevar a cabo las operaciones de la empresa. De nivel táctico, aporta información para los mandos medios en

(22)

22

análisis y decisiones mensuales que son de utilidad para revisiones de seguimiento y toma de acciones. De nivel estratégico: A este nivel las decisiones son de mayor impacto en la compañía siendo utilizada la información por la alta dirección, y su alto impacto en la gestión de Información permite principalmente: aumentar el nivel de comprensión y documentación correspondiente a los sistemas de información ya existentes en una empresa u organización, generar una perspectiva global, estratégica, integra y siempre actualizada de toda la información, armonizar la información y generar un ciclo vital, transformando los datos en información que genera a su vez mayor comprensión, dando como resultado mejor toma de decisiones con mejores resultados para finalmente generar nuevos datos, crear y gestionar métricas, medidores de desempeño (KPI, Key Perfomance Indicador) e indicadores claves de metas (KGI, Key Goal Indicator) imprescindibles para dirección exitosa de una empresa u organización, generar un alto nivel de competitividad en la empresa como resultado de ser capaces de obtener información de manera más eficiente, distinguir y utilizar únicamente datos relevantes, y poseer capacidad ágil en la toma de las decisiones.

Retos que afronta la implementación de la Inteligencia de Negocios: BI a nivel de evento, debido a la expansión de los sistemas de BI desde datos agregados solo para incluir datos del evento Esto puede conducir a un aumento de dos órdenes de magnitud en volúmenes de bases de datos. Teniendo los datos a nivel de evento permiten el BI sistema para responder cualquier pregunta, y permite datos avanzados análisis de minería y modelado. De acuerdo a lo presentado por (Armstrong, Awadallah, McGivern, & Tyson, 2010), Los principales retos se generalizan bajo los siguientes criterios:Data mart unificados, unificando todo los Datamart para los diversos entornos en un solo sistema es una tarea interminable si la empresa continúa adquiriendo empresas más pequeñas (o se adquiere por uno más grande). En muchos casos, un modelo de información federado podría ser una mejor respuesta que un modelo de datos unificado. BI en tiempo real, donde el equipo de T.I. debe entregar los datos al Sistemas de BI dentro de lapsos cortos de tiempo. Esto es necesario para un BI "activo", lo que permite alimentar los datos del sistema BI directamente en los productos en línea de la compañía o Procesos de gestión.

Como parte importante del proceso de investigación es imperativo además partir de los Factores que revelan la necesidad de Business Intelligence la empresa u organización, relacionado a esto y a partir de lo que establece (Curto Diaz & Conesa Caralt, Introducción al Business Intelligence, 2011), se puede interpretar que existen factores y escenarios en los que la elaboración de una solución basada en Business Intelligence resulta propicia. A continuación, listamos algunos de ellos: se cuenta con muchas y diversas fuentes de información, la toma de decisiones es realizada de forma intuitiva, se genera demasiada información en la empresa para ser procesada y analizada de manera convencional, cruzar la información entre las distintas áreas de la empresa se

(23)

23

convierte en un proceso tedioso toma tiempo, existen limitaciones asociadas a la calidad de información, se experimenta la condición conocida como “Excel caos”. Uso de Excel como repositorios de información corporativos o de usuario, se demuestra la necesidad de automatizar los procesos de extracción procesamiento y distribución de la información.

A un nivel más profundo, nos interesa interpretar la Arquitectura de Inteligencia de Negocios, por ello, en concordancia con lo expresado por (Coronel, Morris, & Rob, 2016) entendemos que la arquitectura de la Inteligencia de Negocios está integrada por procesos, personas, datos, tecnología y la administración de estos elementos. Las herramientas de Inteligencia de Negocios se enfocan la información y su uso táctico y estratégico; mientras que, por otro lado, los sistemas de información tradicionales tienen un mayor interés por la automatización operacional y en los informes.

Figura 1: Figura Adaptada - Marco de la Inteligencia de Negocios

Fuente: (Coronel, Morris, & Rob, 2016)

En la figura presentada de Marco de la Inteligencia de Negocios, se representan las distintas fuentes de datos (Cubos essbase, bases de datos Oracle, Sql Server, mainframe, archivos planos, archivos xml, hojas de Excel, etc.) que pudieran utilizarse para extraer los datos de múltiples fuentes simultáneamente. Luego, el proceso de extracción, transformación y carga (ETL). Este proceso es en el que se definen de las fuentes heterogéneas que campos se van a utilizar, de requerirse algún tipo de modificación y/o transformación y donde se fuera a ubicar estos datos, este proceso se le conoce como “mapping”. Y finalmente, el repositorio de datos. En este repositorio se encuentran los datos transformados representados visualmente en modelos multidimensionales, dimensiones y tablas de datos. Existe un proceso entre el repositorio de datos y la interface de acceso al usuario, este es el motor de BI que permite habilitar componentes, administrar consultas, monitorea

(24)

24

procesos, cálculos, métricas. De manera complementaria, (Sinnexus, 2015) expresa que la interface de acceso a usuarios permite interaccionar con los datos, representar de forma gráfica con aquellos resultados de las consultas y los indicadores de gestión que fueron construidos.

Figura 2: Figura adaptada - Relación entre Fuente de Datos y Herramientas de Análisis en la Inteligencia de Negocios

Fuente: (Curto Diaz & Conesa Caralt, Introducción al Business Intelligence, 2011)

Proceso y herramienta ETL, (Trujillo, Mazón, & Pardillo, 2012) respecto a estos conceptos cita a Bill Inmon que a su vez define a los almacenes de datos como el conjunto de datos ordenados por temas, variables en lapsos de tiempo, no volátiles e integrados, a fin de aportar en la toma de decisiones. Donde la principal cualidad es la capacidad de integrar diversas fuentes de información.

La integración de estas fuentes de datos se realiza mediante los denominados procesos de extracción, transformación y carga o procesos ETL (del inglés Extraction-Transformation-Loading).

Conforme a (Trujillo, Mazón, & Pardillo, 2012) estas tres fases en las que se puede dividir un proceso ETL se definen en base a la extracción de datos desde fuentes de datos operacionales y heterogéneas, transformación de esos datos mediante operaciones de limpieza tales como conversión de tipos, normalización, eliminación de valores nulos, etc. y si posterior carga en el almacén de datos dada una cierta política de actualización. Desarrollando lo mencionado, los procesos son: Extracción (Extract) donde la información es extraída desde todas nuestras fuentes de datos, sean estas bases de datos relacionales, XML, o ficheros no estructurados. El volumen de datos extraídos, así como el intervalo de tiempo entre extracciones, depende de las necesidades y requisitos del negocio.Transformación (Transform) donde se analizan los datos extraídos para luego transformarlos en el formato deseado manteniendo su integridad, y llevando a cabo operaciones como validación, cálculos, codificación, filtrado, remoción de duplicados. Y finalmente, Carga (Load) que es el proceso en el que se cargan los datos en un formato consistente y homogéneo en el

(25)

25

almacén de destino, generalmente el Data Warehouse. Los datos están listos para ser explotados y convertidos en conocimiento.

Figura 3: Figura adaptada - Procesamiento ETL

Fuente: (Curto Diaz & Conesa Caralt, Introducción al Business Intelligence, 2011)

Como parte de la investigación debemos contemplar que las metodologías de desarrollo que existen para construir un Data Warehouse las cuales son: METODOLOGÍA RALPH KIMBALL, contemplando once fases, Fase I: Planificación del Proyecto, de acuerdo con (RIVADERA, 2012) esta etapa es la más importante porque se sentará la base para la recolección de datos: Definición del proyecto, alcance del proyecto, factores críticos de éxito, justificación. Fase II: Definición de los Requerimientos del Negocio, (MARTINEZ PUERTO, 2013) expresa que en esta etapa se logrará identificar las necesidades del negocio, los cuales servirán como base para tener una adecuada construcción del Datamart, para ello es necesario recolectar la información de todos los usuarios del negocio. Fase III: Modelamiento Dimensional, como indica (RIVADERA, 2012) Se tomará en cuenta los siguientes datos para el Modelamiento dimencional: Declaración del Grano, definiendo dimensiones, definiendo tabla Hecho, diseño Dimensional a Implementar. Fase IV: Diseño Físico, Según (MEDIAWIKI, 2014) En esta etapa se tomará en cuenta los demás puntos: modelo físico, documentación de la metadata. Fase V: Diseño y desarrollo de la Presentación de Datos, según (Kimball & Ross, 2013) En esta etapa es necesario tener una mirada general acerca de los datos para plantear una estrategia de poblamiento que contendrá los siguientes puntos: conexiones, configuración de dimensiones, configuración de hechos. Fase VI: Diseño de la Arquitectura técnica, en esta etapa se tomará en cuenta: Back Room, basado en la utilización del proceso ETL, es decir extracción, carga y trasformación de los datos, el proceso ETL ya fue explicado anteriormente, Front Room, parte presentable del Datamart, la cual será presentada al usuario final con el fin de que el usuario sea capaz de analizar los datos del Datamart y posteriormente tomar

(26)

26

una decisión estratégica. Fase VII: Selección e instalación del producto (Creación de Cubos), (Kimball & Ross, 2013) es quien define que es necesario identificar las herramientas a ser usadas en cada proceso; especificando esto podemos decir que las herramientas se orientan a: Plataforma DBMS, herramienta ETL, herramienta BI. Fase VIII: Especificación y Desarrollo de la Aplicación del usuario final, (RIVADERA, 2012) establece que en esta etapa identificamos los roles o perfiles de usuarios para definir los diferentes tipos de aplicaciones necesarias en base al alcance de los diferentes perfiles. Se definen un conjunto de aplicaciones estándares. Fase IX: Desarrollo de aplicaciones para usuario finales (Implementación), (LEON, 2014). Nos indica que en esta fase se abarca el desarrollo de las aplicaciones para los usuarios finales, lo cual comprende configuración de los metadatos y la construcción de los informes solicitados Fase X:

Mantenimiento y crecimiento, para (LEON, 2014) la Fase X Es la fase en la que se verifica y determina si el Datamart funciona de manera correcta, por ello se lleva a cabo mediante el diagnóstico y el análisis de los resultados. A diferencia de los sistemas tradicionales, los cambios en el desarrollo deben ser vistos como signos de éxito y no de falla. Es importante establecer las prioridades para poder manejar los nuevos requerimientos de los usuarios de tal forma que se pueda evolucionar y crecer. Fase XI: Despliegue - Revisión (Kimball & Ross, 2013) constituye que el despliegue ETL se realizará el desplazamiento de todo el sistema ETL, como son las transformaciones y trabajos y el Despliegue de BI se desplegará las herramientas de BI juntos con las aplicaciones desarrolladas para la visualización de los datos.

Figura 4: Figura adaptada - Fases de la Metodología Ralph Kimball

Fuente: (Curto Diaz & Conesa Caralt, Introducción al Business Intelligence, 2011)

Por otro lado, tenemos la METODOLOGÍA BILL INMON, y de acuerdo a (ESPINO SAMILLA, 2010) esta metodología aparece bajo el requerimiento de contar con una sola base de datos con la información más importante para poder ser analizada en el momento que se requiera. Esta metodología es parecida a la usada durante la construcción de un sistema de información, que

(27)

27

también usa las mismas herramientas. Para el procesamiento de la variación de los datos se utiliza las dimensiones continuas y discretas, decir registra fechas para establecer la vigencia de los datos.

Este enfoque es más complejo ya que conlleva a un nivel mayor de detalle.

Figura 5: Figura adaptada - Fases Metodología Bill Inmon

Fuente: (Curto Diaz & Conesa Caralt, Introducción al Business Intelligence, 2011)

En el marco conceptual de esta investigación tenemos: conceptos OLAP y OLTP, a partir de la definición de (Raghunath Nambiar,Meikel Poess, 2012) se expresa que las aplicaciones pueden ser clasificadas en el dominio al que corresponden en base a su particularidad de procesamiento de datos. El proceso de trabajo OLTP se singulariza por la composición de sentencias de registro, actualización y eliminación que son particularmente de una reducida ejecución, las cuales devuelven un gran volumen de columnas de una tabla y manipula estrictamente un corto conjunto de filas. Por otro lado, sin embargo, las ejecuciones OLAP se singularizan por ser sentencias más complicadas y principalmente solamente de interpretación o lectura que trabajan con un pequeño volumen de columnas, no obstante, un gran número de filas. OLTP es un sistema que gestiona aplicaciones orientadas a transacciones en Internet, por ejemplo, ATM. OLAP es un sistema en línea que reporta a consultas analíticas multidimensionales como informes financieros, pronósticos, etc. La diferencia básica entre OLTP y OLAP es que OLTP es un sistema de modificación de base de datos online, mientras que OLAP es un sistema de respuesta de consulta de base de datos online. Análisis Comparativo OLAP y OLTP.

(28)

28 Tabla 1: Comparativo OLAP y OLTP

Online Analytical Processing (OLAP) Online Transaction Processing (OLTP) Sistemas Data warehouse se usan para el análisis

de datos y toma de decisiones. A estos sistemas se denomina sistemas OLAP

Sistemas de Base de Datos Operacionales en Línea que realizan transacciones en línea y ejecución de sentencias, se denominan OLTP

Implica el procesamiento histórico de la

información Implica procesamiento día a día de la información

Utilizado para Análisis del Negocio Utilizado para el funcionamiento del negocio Enfocado en la Salida de la Información Enfocado en el Ingreso de la Información Provee información resumida y consolidada

(combinada) Provee información plana y detallada

Tamaño de Base de Datos de 100 Gb a 1 Tb Tamaño de Base de Datos de 100 Mb a 1 Gb

Fuente: (Thakkar, 2018)

Respecto a herramientas para el procesamiento ETL tenemos Pentaho PDI – Kettle, esta herramienta bajo la conceptualización de (Roldan M. C., 2017) Pentaho Data Integration (También conocido como Kettle) es un motor, junto a otra suite de herramientas, responsable de procesar la extracción, transformación, y carga, más conocido como proceso ETL. Pentaho Data Integration (PDI) no lo sirve como una herramienta ETL, sino también es usada con otros propósitos, como migración de datos entre aplicaciones o bases de datos, exportando datos desde una base de datos en archivos planos, limpieza de datos, y mucho más. Esta herramienta permite cargar datos de múltiples fuentes de origen, cargar dichos datos en un data warehouse para que posteriormente la información consolidada sea de utilidad a nivel operativo, táctico y estratégico, siendo las principales características: Entorno gráfico orientado al desarrollo rápido y ágil basado en las áreas de trabajo y diseño/vista, es multiplataforma, incluye múltiples conectores a bases de datos, tanto propietarias como comerciales, así como conectores a ficheros planos, Excel, XML u otros, su arquitectura es extensible mediante plugins, soporta uso de cluster, procesos ETL en paralelo y arquitecturas servidor maestro-esclavo y es completamente integrado con la suite de Pentaho. El siguiente diagrama nos proporciona una idea de cómo se relacionan trabajos y transformaciones.

(29)

29 Figura 6: Figura adaptada - Diagrama de Relación

Fuente: (Curto Diaz & Conesa Caralt, Introducción al Business Intelligence, 2011)

Pentaho PDI está formado por cuatro componentes: Spoon, es el entorno gráfico para el desarrollo de transformaciones y trabajos. Pan, que permite ejecutar transformaciones. Kitchen, que permite ejecutar trabajos. Carte, es un servidor remoto que permite la ejecución de transformaciones y trabajos. Los pasos disponibles para trabajos son: Generales, permite iniciar un trabajo, ejecutar transformaciones o trabajos entre otras operaciones. Correo, permite enviar correos, recuperar cuentas o validarlas. Gestión de ficheros, permite realizar operaciones con ficheros como crear, borrar, comparar o comprimir. Condiciones, permite realizar comprobaciones necesarias para procesos ETL como la existencia de un fichero, una carpeta o una tabla. Scripting, permite crear scripts de JavaScript, SQL y Shell. Carga bulk, permite realizar cargas bulk a MySQL, MSSQL, Acces y ficheros. XML, permite validar XML y XSD. Envío de ficheros, permite enviar o coger ficheros desde FTP y SFTP. Repositorio, permite realizar operaciones con el repositorio de transformaciones y trabajos. Transformar, permite realizar operaciones con datos como filtrar, ordenar, partir añadir nuevos campos, mapear. Utilidades, permite operar con filas o columnas y otras operaciones como enviar un email, escribir a un log. Flujo: permite realizar operaciones con el flujo de datos como fusionar, detectar flujos vacíos, realizar operaciones diferentes en función de una condición. Scripting, permiten crear scripts de JavaScript, SQL, expresiones regulares, fórmulas y expresiones java. Búsqueda de datos, permite añadir información al flujo de datos mediante la búsqueda en bases de datos y otras fuentes. Uniones, permite unir filas en función de diferentes criterios. Almacén de datos, permite trabajar con dimensiones SCD. Estadística, permite realizar operaciones estadísticas sobre un flujo de datos. Mapeado, permite realizar el mapeo entre campos de entrada y salida. Embebido, permite realizar operaciones con sockets.

(30)

30

Experimental, incluye los pasos en fase de validación. Obsoleto incluye los pasos que desaparecerán en la siguiente versión del producto. Carga bulk permite realizar cargas bulk a Infobright, LucidDB, MonetDB y Oracle. Historial, recopila los pasos frecuentemente usados por el desarrollador.

Manteniendo un enfoque más general de la Suite de Pentaho BI podemos conocer en base (Roldan M. C., 2010) quien especifica que Pentaho BI Suite es una colección de aplicaciones de software con la intención de crear y entregar soluciones para la toma de decisiones. Las principales áreas funcionales cubiertas por la suite son: Análisis, el motor de análisis sirve para el análisis multidimensional. Este es proporcionado por el servidor OLAP Mondrian y la librería JPivot para navegación y exploración. Reportes, el motor de reportes permite el diseño, creación y distribución de reportes en varios formatos conocidos (HTML, PDF, entre otros) desde diversos tipos de fuentes.

Los reportes creados en Pentaho se basan en la libreria principal JFreeReport, pero es posible integrar reportes creados desde librerías externas como Jasper Report o BIRT. Minería de Datos, la minería de datos procesa datos a través de algoritmos a fin de entender el negocio y hacer análisis predictivos. Un conjunto de herramientas incorporadas a la Suite de BI en la última versión permite a los usuarios crear paneles interesantes, incluyendo gráficos, reportes, vistas de análisis y otro contenido de Pentaho sin mucho esfuerzo. Integración de Datos, La integración de datos se utiliza para integrar información dispersa de diferentes fuentes (aplicaciones, bases de datos, archivos) y poner a disponibilidad la información al usuario final.

Actualmente Pentaho está siguiendo la estrategia open core, que consiste en que a partir de un núcleo open source se ofrecen servicios y módulos mejorados. Ésta es la razón por la cual este conjunto de tecnologías se ajusta a la necesidad del proyecto serán utilizados para el desarrollo de la solución propuesta. Para la selección de la Metodología (Avellaneda Rojas, 2015) en su Tesis realiza la comparación de las dos metodológicas de acuerdos a los siguientes criterios:

(31)

31 Tabla 2: Matriz de evaluación general de Metodologías

Metodología Criterios

EXPLOTACION DE

DATOS USABILIDAD EXPERTISE EXTENSIBLE ORIENTACION

DE DATOS

M. de Bill Inmon

Está orientado hacia el almacenaje de grandes cantidades de datos, por

ello las consultas son más complejas y requieren de un mayor

tiempo de extracción.

Trabaja sobre el esquema de base de datos

de toda la empresa

Requiere de un equipo con alta especialización

Los Datamart no se encuentran relacionados entre

ellos

Se encuentra orientado a los

datos

M. Ralph Kimball

Está orientado a la consulta de datos, por

ello está diseñada principalmente a garantizar la explotación

de datos de manera sencilla y rápida

Desarrollo de Datamart abarcando los

procesos de interés

Requiere de un equipo con especialización

media

Las fases de esta metodología para el

desarrollo de un Datamart están relacionadas a las

dimensiones, quienes son las

que forman la arquitectura del

Datamart

Se encuentra orientado a los

procesos

Fuente: (Avellaneda Rojas, 2015)

Al realizar la comparación de las dos metodologías Bill Inmon y Ralph Kimball, se determinó que la metodología Ralph Kimball es la más apropiada para proyectos pequeños donde se requiere asegurar la usabilidad de los usuarios, proporcionando un enfoque de menor a mayor, muy versátil y dejando la puerta abierta a una ampliación posterior. Por lo que el Datamart de la empresa Yomiqui S.A.C. se utilizó la metodología propuesta por Ralph Kimball.

La justificación Tecnológica para realizar esta investigación tiene que ver con los Sistemas de Información es una innovación tecnológica para la empresa, permitiendo la reducción de tiempos en la gestión comercial para el área financiera de la empresa Yomiqui S.A.C.

La justificación Económica de esta investigación es que la implementación de un Datamart de un Sistema de Información permite ahorrar costos que se ve reflejados en el proceso de elaboración ya que el tiempo promedio de realización de un registro o consulta y reporte es menor cuando existe una adecuada fuente de información. Esta información centralizada permitirá que los reportes sean más eficientes y de mejor calidad utilizando menos recursos humanos en la elaboración de los

(32)

32

mismos. La Justificación Organizacional de esta investigación es que la información extraída de los reportes generados por el Datamart nos permitirá conocer detalladamente el estado de rentabilidad de cada sucursal de la empresa y profundizar el análisis en los puntos que más pueden afectar la calidad del servicio al cliente, implementando para ellos nuevas estrategias de Gestión.

La justificación Académica de esta investigación está enfocada a demostrar el impacto positivo de la implementación de un Datamart para la gestión de los procesos financieros en una empresa que pudiendo ser pequeña con información distribuida en diferentes fuentes, demuestra que acompañada de una herramienta gratuita como Pentaho compatible con diversas tecnologías y motores de bases de datos dirigida a la generación de informes, ETL, etc., se convierte en un complemento importante para una correcta toma de decisiones, resultado de la reducción del tiempo en la generación de reportes, la diminución en el presupuesto requerido para la generación de reportes y sobre todo del incremento el nivel de satisfacción de los usuarios.

El problema de nuestra investigación es: ¿De qué manera la implementación de un Datamart dinamiza en la toma de decisiones para la Gestión de gastos e ingresos de la empresa Yomiqui S.A.C.?, teniendo como hipótesis: La implementación de un Datamart a través de la generación de reportes y la reducción del tiempo de la elaboración de estos, dinamiza la toma de decisiones en la Gestión de gastos e ingresos de la empresa Yomiqui S.A.C.”

El objetivo general de nuestra investigación es: Dinamizar la toma de decisiones para la Gestión Financiera de la empresa Yomiqui S.A.C a través de la implementación de un Datamart. Y nuestro Objetivo Específico es la Implementación de un Datamart, con el fin de: a) Reducir el tiempo para la generación de reportes con indicadores de gestión financiera, b) Disminuir el presupuesto requerido para la generación de reportes de gestión, c) Incrementar el nivel de satisfacción de los usuarios.

La limitación que tuvimos para nuestra investigación fue: La poca disposición al acceso de la información de la empresa requerida para el desarrollo del sistema.

(33)

33

CAPITULO II MATERIALES Y

MÉTODO

(34)

34

2.1. MATERIALES

Los materiales usados en la siguiente investigación fueron 2.1.1. Objeto de estudio

El objeto de estudio de esta investigación es el área Financiera 2.1.2. Recursos

La viabilidad económica es detallada en el Anexo J. Adicional a ello, los recursos empleados se describen y clasifican y en:

2.1.2.1. Personal

El personal se utilizó de acuerdo a la siguiente tabla simple

Tabla 3: Recursos Humanos del Proyecto

Personal Unidad de Medida Cantidad

Investigador Persona 2

Asesor Persona 1

2.1.2.2. Bienes

Los bienes utilizados en la investigación fueron los siguientes Mobiliario, Equipo y Accesorios

El Equipo, mobiliario y accesorios usados fueron

Tabla 4: Equipos y Mobiliario Disponible

Tipo Descripción Cantidad

Accesorios Lapiceros, materiales de escritorio 2

Accesorios Memoria USB Kingston 8 GB. 2

Mobiliario Mesa de Trabajo 1

2.1.2.3. Viajes

Adicionalmente, fue necesario realizar viajes cuyas descripciones se presentan a continuación

Tabla 5: Costo de Viajes

Tipo Descripción Unidad de medida Cantidad

1 Movilidad Presentación de informes Viajes 6

3 Entrevistas Entrevistas con el asesor Viajes 12

4 Reuniones Reuniones entre los investigadores Viajes 50

(35)

35

2.1.2.4. Servicios

Parte de los servicios requeridos durante la investigación fueron

Tabla 6: Costo de Servicios

Descripción Unidad de medida Cantidad

1 Fotocopiado Unidad 50

3 Anillados Unidad 6

4 Impresiones Unidad 250

5 Empastado Unidad 6

6 Internet Horas 720

2.1.2.5. Tecnológicos

Las tecnologías que formaron parte del proyecto de investigación se categorizan en Software

Tabla 7: Software Disponible

Software Cantidad

1 Pentaho BI Server v7.1 1 Unidad

2 Mysql Workbench 8.0 1 Unidad

3 Windows 7 1 Unidad

4 Kettle Spoon 7.1.0.0 1 Unidad

5 Schema Workbench v3.14 1 Unidad

6 Microsoft Office (Word, Excel, Power Point) 1 Unidad

Hardware

Tabla 8: Equipos y Mobiliario Disponible

Tipo Descripción Cantidad

1 Equipo PC Laptop: Procesador CORE i5, 4 GB RAM, 500 GB Disco duro.

2

2 Equipo Impresora Canon MP 280 1

3 Accesorios Memoria USB Kingston 8 GB. 2

(36)

36

2.2. MÉTODO

2.2.1. Tipo de investigación 2.2.1.1. De acuerdo a la orientación

Es una investigación aplicada, debido a que se da solución a problemas haciendo uso de técnicas ya existentes.

2.2.1.2. De acuerdo a la técnica de contrastación

Será experimental porque manejaremos variables que serán puestos en estudio para su manipulación, con el fin de determinar el efecto que provoca.

2.2.2. Nivel de la investigación

El régimen de investigación fue experimental, las variables fueron puestas en estudio para su manipulación, con el fin de determinar el efecto que provoca.

2.2.3. Diseño de investigación

El diseño de la investigación fue cuasi – experimental. Una medición previa de la variable dependiente a ser utilizada, previa la aplicación de la variable independiente (Pre-Test).

La aplicación de la variable independiente. Una nueva medición de la variable dependiente después de la aplicación de la variable independiente (Post-Test).

Es decir:

O1 X O2

(Estímulo) Donde:

O1: Medición de la obtención de información antes de la implementación de un Data mart para dinamizar la gestión financiera.

X: Datamart para dinamizar la gestión financiera para la empresa Yomiqui S.A.C.

O2: Medición de la obtención de información después de la implementación de un Datamart para dinamizar la gestión financiera.

Referencias

Documento similar

Esta U.D.A. de Podología nace con la voluntad de dar respuesta a la necesidad de contribuir a la integración de conocimiento, actitudes y habilidades en la formación de

De la Salud de la Universidad de Málaga y comienza el primer curso de Grado en Podología, el cual ofrece una formación generalista y profesionalizadora que contempla

Fuente de emisión secundaria que afecta a la estación: Combustión en sector residencial y comercial Distancia a la primera vía de tráfico: 3 metros (15 m de ancho)..

En cuarto lugar, se establecen unos medios para la actuación de re- fuerzo de la Cohesión (conducción y coordinación de las políticas eco- nómicas nacionales, políticas y acciones

La campaña ha consistido en la revisión del etiquetado e instrucciones de uso de todos los ter- mómetros digitales comunicados, así como de la documentación técnica adicional de

You may wish to take a note of your Organisation ID, which, in addition to the organisation name, can be used to search for an organisation you will need to affiliate with when you

Where possible, the EU IG and more specifically the data fields and associated business rules present in Chapter 2 –Data elements for the electronic submission of information

The 'On-boarding of users to Substance, Product, Organisation and Referentials (SPOR) data services' document must be considered the reference guidance, as this document includes the