Fundamentos de Data Warehousing y GIS: Guía Completa para Estudiantes
20 preguntas
A. Ano
B. Ne
Explicación: Los Data Marts son almacenes de datos departamentales o funcionales, diseñados para reunir datos específicos para un departamento. Se categorizan en dependientes, que son un subconjunto de un Data Warehouse, e independientes, que se diseñan específicamente para un departamento.
A. Es una colección de datos orientada a temas específicos, organizada para ayudar en la toma de decisiones.
B. Los datos están integrados de diversas fuentes y son variables con el tiempo, acumulando un registro histórico.
C. Permite que los usuarios finales cambien o modifiquen los datos directamente una vez que han sido introducidos.
D. Los datos no son volátiles, lo que significa que los usuarios no pueden modificarlos, solo los profesionales de IT.
Explicación: Según la definición de Bill Inmon, un Data Warehouse es una colección de datos orientados a temas, integrado, variable con el tiempo y no volátil. La característica de 'orientado a temas' implica que los datos están organizados por temas y son relevantes para la toma de decisiones. 'Integrado' se refiere a que los datos se homogenizan al cargarse, y 'variable con el tiempo' indica que mantiene datos históricos. La característica de 'no volátil' significa que una vez introducidos, los datos no pueden ser cambiados por los usuarios, siendo esta tarea exclusiva de los profesionales de IT. Por lo tanto, la opción que indica que los usuarios pueden modificar los datos directamente es incorrecta.
A. Ano
B. Ne
Explicación: La arquitectura Hub and spoke, según los materiales de estudio, logra mayor consistencia, no inconsistencias.
A. Ano
B. Ne
Explicación: La fase de Transformación (T) en las herramientas ETL se encarga de la limpieza de los datos. Este proceso asegura la calidad de los datos, evitando la incorporación de registros erróneos, eliminando datos duplicados y detectando valores vacíos o anómalos.
A. Los elimina permanentemente para mantener la integridad del Data Warehouse.
B. Los incorpora directamente al Data Warehouse, esperando que se corrijan en etapas posteriores de análisis.
C. Los recolecta para que puedan ser analizados y corregidos, para luego volverlos a pasar por el ETL.
D. Los marca como "no válidos" y los ignora en futuras cargas, sin intentar corregirlos.
Explicación: Según los materiales de estudio (Pág. 18), el proceso ETL recolecta los registros con datos erróneos para que puedan ser analizados y corregidos, y luego volverlos a pasar por el ETL, en lugar de eliminarlos o ignorarlos definitivamente.