scholarly journals Cubo de Información para el Análisis de Indicadores de Ingreso en Programas Acreditados

2021 ◽  
Vol 4 (2) ◽  
pp. 13-34
Author(s):  
R. Villegas Téllez ◽  
D.A. Torres Frausto ◽  
J.C. Soto Patiño

En el Instituto Tecnológico Superior de Irapuato el Departamento de Tutorías procesa una gran cantidad de información relacionada con los alumnos de nuevo ingreso, tal como escuela de procedencia, nivel socio-económico, datos del examen de ingreso CENEVAL, exámenes psicométricos, entre otros rubros. Toda esta información es muy valiosa para la institución, ya que le permite conocer mejor a sus estudiantes y guiarlos adecuadamente durante su estancia en la institución. El presente trabajo expone el desarrollo de una base de datos Data Warehouse usada para almacenar todos los datos que provienen de las diversas fuentes de información. Esta base de datos es la base del cubo de información que le permite al Departamento de Tutorías un análisis rápido que agiliza y sustenta la toma de decisiones, tal como el otorgamiento de becas, estrategias para disminuir el índice de deserción, desarrollo de plataformas de estudio, entre otras más. The Instituto Tecnológico Superior de Irapuato Tutorial Center processes a large amount of information related to incoming students, such as high school data, socioeconomic level, CENEVAL and psychometric tests among other items. All this information is very valuable for the institution, since it allows a better knowledge of the students and guide them properly throughout their stay in the institution. This paper presents a Data Warehouse database development used as a storage of multiple data sources. This database is required by a data cube that allows the Tutorial Center a quick analysis to streamline and support decision options, such as grants and scholarships, strategies to decrease the dropout rate, development of study platforms, and more.

2011 ◽  
pp. 2542-2557
Author(s):  
Marcus Costa Sampaio ◽  
Cláudio de Souza Baptista ◽  
André Gomes de Sousa ◽  
Fabiana Ferreira do Nascimento

This chapter introduces spatial dimensions and measures as a means of enhancing decision support systems with spatial capabilities. By some way or other, spatial related data has been used for a long time; however, spatial dimensions have not been fully exploited. It is presented a data model that tightly integrates data warehouse and geographical information systems — so characterizing a spatial data warehouse (SDW) — ; more precisely, the focus is on a formalization of SDW concepts, on a spatial-aware data cube using object-relational technology, and on issues underlying a SDW — specially regarding spatial data aggregation operations. Finally, the MapWarehouse prototype is presented aiming to validate the ideas proposed. The authors believe that SDW allows for the efficient processing of queries that use, jointly, spatial and numerical temporal data (e.g., temporal series from summarized spatial and numerical measures).


Data ◽  
2019 ◽  
Vol 4 (3) ◽  
pp. 94 ◽  
Author(s):  
Steve Kopp ◽  
Peter Becker ◽  
Abhijit Doshi ◽  
Dawn J. Wright ◽  
Kaixi Zhang ◽  
...  

Earth observation imagery have traditionally been expensive, difficult to find and access, and required specialized skills and software to transform imagery into actionable information. This has limited adoption by the broader science community. Changes in cost of imagery and changes in computing technology over the last decade have enabled a new approach for how to organize, analyze, and share Earth observation imagery, broadly referred to as a data cube. The vision and promise of image data cubes is to lower these hurdles and expand the user community by making analysis ready data readily accessible and providing modern approaches to more easily analyze and visualize the data, empowering a larger community of users to improve their knowledge of place and make better informed decisions. Image data cubes are large collections of temporal, multivariate datasets typically consisting of analysis ready multispectral Earth observation data. Several flavors and variations of data cubes have emerged. To simplify access for end users we developed a flexible approach supporting multiple data cube styles, referencing images in their existing structure and storage location, enabling fast access, visualization, and analysis from a wide variety of web and desktop applications. We provide here an overview of that approach and three case studies.


2014 ◽  
Vol 5 (2) ◽  
Author(s):  
Stephanie Pamela Adithama

Abstract. The running of academic activities in university continuously adds more data to the existing operational system. The data are not ready for the university strategic decision making, preparing reports for accreditation purposes and academic units. Real-time business intelligence application using data warehouse can become a solution for data analysis. The process of creating a data warehouse includes designing data warehouse, retrieving academic data from multiple data sources, extracting, transforming, loading (ETL) process, creating cube; and generating report. ETL processes are conducted by using a Pull Change Data Capture approach so that data changes during a certain period can be transferred in real-time. The higher the frequency of data change requests brings us closer to real-time and requires less time than loading all the data.Keywords: real-time, business intelligence, data warehouse, academic, change data capture Abstrak.  Kegiatan akademik di universitas berjalan terus menerus dan semakin menambah banyak data pada sistem operasional yang sudah ada. Data tersebut masih belum dapat dimanfaatkan oleh pihak universitas dalam pengambilan keputusan strategis, pembuatan laporan untuk keperluan akreditasi dan unit-unit akademik. Aplikasi real-time business intelligence menggunakan data warehouse menjadi solusi untuk analisa data. Proses pembuatan data warehouse meliputi perancangan data warehouse; pengambilan data akademik dari sumber data; proses extraction, transformation, loading (ETL); pembuatan cube; dan pembuatan laporan. Proses ETL dilakukan menggunakan pendekatan Change Data Capture Pull agar perubahan data selama periode tertentu dapat dipindahkan secara real-time. Semakin tinggi frekuensi permintaan perubahan data akan semakin mendekati real-time dan semakin membutuhkan waktu yang singkat dibandingkan dengan me-load semua data.Kata Kunci: real-time, business intelligence, data warehouse, akademik, change data capture


2020 ◽  
Vol 24 (102) ◽  
pp. 47-54
Author(s):  
Héctor Zerpa ◽  
Richard García ◽  
Henry Izquierdo

En un entorno de producción los procesos de toma de decisiones son importantes debido a los impactos que estos generan sobre otros procesos. Para tal fin resulta conveniente acceder a la información almacenada en los grandes almacenes de datos a través de un modelo menos complejo, los Datamarts. Un Datamart permite optimizar el proceso de aprovechamiento de la información, a través del agrupamiento de los factores de interés que inciden sobre un hecho o hechos en particular. Así pues, se realizó una investigación del tipo proyectiva y estableciendo como objetivo general el desarrollo de un Datamart basado en el modelo estrella, orientado hacia los modelos de sistemas productivos agropecuarios. La optimización del proceso de extracción y visualización de los datos almacenados en el Datamart, fue llevada a cabo a través de la implementación de un cubo OLAP. Utilizando herramientas de software como SQL Server Management para el diseño de la base de datos, el entorno de desarrollo integrado Visual Studio para la ejecución y diseño de los procesos de extracción, transformación y carga de los datos, y de Power BI como herramienta de Inteligencia de Negocio para la generación de informes y visualizaciones dinámicas de los indicadores establecidos. Palabras Clave: datamart, data warehouse, base de datos, inteligencia de negocio. Referencias [1].B. Mazon, A. Pan and R. Tinoco. Análisis de Datos Agropecuarios. 1ra. Ed. Ecuador: UTMACH, 2018. [2].A. De Mauro, M. Greco y M. Grimaldi. “Una definición formal de Big Data basada en sus características esenciales. Revisión de la biblioteca”, Library Review, vol. 65 no. 3, pp. 122-135, Abril 2016. [3].P. Muñoz. “Desarrollo de una arquitectura de Big Data para registros mercantiles”. Trabajo de grado, UCV, Caracas, 2016. [4]. Z. Jourdan, R.K. Rainer y T.E. Marshall. 2Business Intelligence: An Analysis of Literature. Information System Management”, IEEE Engineering Management Review, vol. 25, no 2, p. 121-131, Marzo 2008. [5].W.H. Inmon. Building the Data Warehouse. 3ra. ed. New York: Wiley, 2002. [6].C. J. Date. Introducción a los sistemas de bases de datos. 7ma. ed. México: Pearson Educación, 2001. [7]Cubo OLAP. (2020, mayo 10). Wikipedia. [En línea] Disponible en: https://es.wikipedia.org/wiki/Cubo_OLAP. [Último acceso: 13 de marzo de 2020]. [8]B.R. Dario. Data Warehousing: Investigación y sistematización de conceptos. Hefesto: Metodología propia para la construcción de un Datawarehouse. 1ra. ed. Cordoba: Argentina, 2010.


Author(s):  
Guillermo Omar Pizarro Vásquez ◽  
Vanessa Jurado ◽  
Shirley Coque

La Dirección Técnica de Vinculación con la Sociedad de la Universidad Politécnica Salesiana, Sede Guayaquil, es la encargada de gestionar proyectos de vinculación que proporcionan el acercamiento entre Universidad y Sociedad, en conjunto con las Carreras. El desarrollo de estos proyectos no cuenta con la ayuda de un sistema de información geográfico para establecer los lugares donde se ha intervenido. Para brindar apoyo a la toma de decisiones en el proceso de la gestión de proyectos en sus etapas iniciales, se aplicó un Spatial Data Warehouse y se diseñó e implementó algunos cubos de datos espaciales, siguiendo la metodología HEFESTO, que permitieron la visualización escalar y geográfica de proyectos ejecutados; además, de la identificación de sectores vulnerables para el desarrollo de nuevos proyectos.


Author(s):  
Angelino Feliciano Morales ◽  
René Edmundo Cuevas Valencia ◽  
José Mario Martínez Castro

Este trabajo describe la utilidad e importancia de la herramienta OLAP en Business Intelligence con el fin de recomendarla a los administradores de empresas para su toma de decisiones. La tecnología OLAP permite el rápido acceso a datos mediante data warehouse, agilizando el analisis de la información. Los cubos proveen de un rápido mecanismo de búsqueda de datos y de un tiempo de respuesta uniforme, independientemente de la cantidad de datos o de la complejidad del procedimiento de búsqueda. Tomando en cuenta su funcionamiento y estructura, el sistema OLAP se clasifica en tres categorías: ROLAP, MOLAP y HOLAP. Actualmente el sistema OLAP que más se utiliza es el denominado ROLAP.


Quipukamayoc ◽  
2014 ◽  
Vol 11 (21) ◽  
pp. 73
Author(s):  
Raúl Jesús Vergara Moncada

Actualmente la Superintendencia Nacional de Administración Tributaria en el Perú (SUNAT) ha implementado un conjunto de herramientas informáticas como el DATA WAREHOUSE (Almacén de Datos) que permiten a sus funcionarios controlar a los contribuyentes de manera efectiva comba tiendo el contrabando y la evasión de impuestos. La Base de Datos Nacional (BDN) contiene información interna de los sistemas internos de la SUNAT y cuenta con fuentes externas, tanto del sector público y privado; se utiliza para los métodos de selección inteligente, consultas individuales y herramientas de inteligencia de negocios, lográndose incrementar el nivel de eficiencia de las acciones de fiscalización y de esta manera reducir la evasión tributaria en nuestro país. Ante la necesidad de organizar y analizar cada vez mejor los datos que se generan en los sistemas de la propia SUNAT y los procedentes de otras fuentes, esta institución ha implementado un «Almacén de Datos» (Data Warehouse) que, con el complemento de un conjunto de herramientas innovadoras en el medio, facilitan a sus funcionarios el acceso y el análisis de grandes volúmenes de datos, generando así la información necesaria. Esto permitirá a la SUNAT tomar mejores decisiones e incrementar su eficiencia de manera significativa en tareas tan urgentes como son la ampliación de la base tributaria, el combate contra la evasión y el contrabando; así como la facilitación de las buenas prácticas en el comercio exterior. De esta forma, a la fecha, se cuentan con 93 métodos de selección que obedecen a diversos perfiles de incumplimiento tributario, que comprende tipo y tamaño de contribuyentes, tributos afectos, interés f iscal, además de 863 indicadores de incumplimiento tributario. Este «Almacén de Datos», denominado Base de Datos Nacional (BDN), contiene información que se genera en los sistemas internos de la SUNAT correspondiente a tributos internos y a las aduanas de todo el país; así como aquella que se obtiene no sólo de las declaraciones de los contribuyentes, sino también de entidades externas. De hecho hoy en día las empresas mantienen generalmente dos bases de datos independientes; una que contiene los datos operacionales y otra, a la que con frecuencia se le llama Almacén de Datos (DATA WAREHOUSE), que contiene datos de apoyo para la toma de decisiones.


2014 ◽  
Vol 1046 ◽  
pp. 469-476 ◽  
Author(s):  
Wei Ping Peng ◽  
Yuan Hua Zhong ◽  
Zhao Liu ◽  
Jing Li ◽  
Rong Gao

To solve the problem of massive PLM product data analysis, a PLM product data analysis system based on OpenStack cloud platform was proposed.It includes a data analysis method of structured products based on data warehouse and a data analysis method of non-structured products based on Hadoop. By means of the former method, firstly product data was filtered, tranformed and loaded into the warehouse, then the required data cube was extracted, lastly the structured product data was analyzed with the analysis tools of data warehouse. By means of the latter method, the product data firstly was loaded into the distributed file system,and the non-structured massive PLM product data was analyzed by the data mining algorithm,which was programmed by JAVA language based on MapReduce. By applying the methods mentioned above to massive PLM product data analysis, it shows that these methods hava a higher efficiency.


Author(s):  
Vikas Agrawal ◽  
P. S. Sundararaghavan ◽  
Mesbah U. Ahmed ◽  
Udayan Nandkeolyar

Data warehouse has become an integral part in developing a DSS in any organization. One of the key architectural issues concerning the efficient design of a data warehouse is to determine the “right” number of views to be materialized in order to minimize the query response time experienced by the decision makers in the organization. We consider a bottleneck objective in designing such a materialization scheme which has the effect of guaranteeing a certain level of performance. We examine linear integer programming formulations, and develop heuristics and report on the performance of these heuristics. We also evaluate heuristics reported in the literature for the view materialization problem with a simpler objective.


Sign in / Sign up

Export Citation Format

Share Document