option
Cuestiones
ayuda
daypo
buscar.php

Big Data parcial 1

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Big Data parcial 1

Descripción:
Siglo XXI Primer Parcial de Big Data

Fecha de Creación: 2024/10/23

Categoría: Informática

Número Preguntas: 55

Valoración:(1)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Qué entendemos por Big Data?. Es toda aquella información que no puede ser procesada o analizada utilizando procesos o herramientas tradicionales. Información que solo puede ser almacenada en dispositivos físicos. Datos que solo son útiles para grandes empresas. Un conjunto de datos limitado y controlado.

Una característica de Big Data es que: Permite realizar analítica de los datos. No se puede procesar en tiempo real. Solo se utiliza en redes sociales. No requiere almacenamiento digital.

¿Cuáles de las siguientes corresponden al concepto de "Las 4 V" de Big Data? Seleccione las 4 correctas: Volumen. Valor. Variedad. Velocidad. Variación. Veracidad. Volatilidad.

¿Qué aporta a las empresas la implementación de mejoras tecnológicas producto de una estrategia de Big Data?. Posibilitan la adquisición de datos y permiten descubrir las necesidades y puntos de mejora en la compañía. Facilitan la predicción de comportamientos exactos a largo plazo. Permiten tomar decisiones más rápidas, aunque con mayor riesgo de error. Solo se utilizan para reducir los costos de almacenamiento de datos.

En un proyecto de Big Data, ¿qué datos aportan valor al negocio?. Los datos que permiten obtener información útil para la toma de decisiones de un determinado negocio. Los datos que son fáciles de procesar y almacenar, sin importar su relevancia para la empresa. Los datos que provienen de fuentes confiables, aunque no aporten a la toma de decisiones. Los datos que son altamente precisos, pero irrelevantes para los objetivos comerciales.

¿Qué ventaja obtiene una empresa al aplicar tecnología Big Data si consideramos la velocidad de los datos?. La velocidad de los datos será ventajosa para la toma de decisiones. Permitirá reducir el número de empleados necesarios para procesar la información. La empresa podrá obtener datos más precisos, aunque con mayor demora en la toma de decisiones. La velocidad no influye en el proceso de análisis, sino en el almacenamiento de datos.

En una empresa de productos electrónicos, se está analizando la implementación de tecnología Big Data. ¿Cuáles son las principales ventajas que se obtendrían? Seleccione las 2 correctas: Análisis de operaciones, porque la empresa podrá analizar sus transacciones en mejor tiempo y de manera más eficaz. Visión 360º del cliente, porque le permitirá tener más información sobre sus clientes. Reducción de costos operativos al disminuir el uso de almacenamiento en la nube. Mejora del servicio al cliente, aunque sin influir en la estrategia de marketing. Posibilidad de automatizar la producción sin intervención humana.

Indique qué solicitudes se pueden resolver utilizando Data Mining: Encontrar patrones ocultos y repetitivos. Identificar la velocidad óptima de procesamiento en redes neuronales. Clasificar datos estructurados y no estructurados en diferentes bases de datos. Optimizar el rendimiento de los servidores en tiempo real.

¿De qué manera las empresas pueden recrear sus modelos de negocio a partir de datos capturados en el universo de internet?. Vinculando la actividad de las personas en la red con sus perfiles de usuario. Analizando solamente las interacciones de los usuarios en redes sociales. Implementando tecnologías de Big Data para reducir el tamaño de las bases de datos. Conectando la actividad de los usuarios con sus dispositivos móviles sin identificar sus perfiles.

Seleccione las 4 opciones correctas. El arquitecto de datos de una empresa de telefonía definió la arquitectura con la que se implementará Big Data. ¿Cuáles son los componentes principales?. Staging. Laguna de datos. Data warehouse. Transaccionales. Servidores de aplicaciones web. Bases de datos no relacionales estándar. Herramientas de visualización en tiempo real.

Cuando hablamos de la característica volumen en Big Data, ¿cuál es la visión respecto a la utilidad de los datos?. Algunos datos no serán útiles por falta de calidad o porque no forman parte de la estrategia de análisis. Todos los datos son útiles independientemente de su origen. El volumen de datos siempre determina su calidad. Cuanto mayor sea el volumen de datos, más preciso será el análisis de la información.

¿Cuál es el objetivo general de la Inteligencia de Negocios o Business Intelligence?. La toma de decisiones. Mejorar la eficiencia operativa a corto plazo. Aumentar el volumen de datos sin necesidad de análisis. Desarrollar estrategias de marketing automatizadas sin intervención humana.

Desde las perspectivas del marketing y la publicidad, ¿por qué el Big Data ofrece un alto índice de impacto?. Porque los productos ofrecidos por las empresas podrían estar hechos a medida, gracias a la categorización de perfiles. Porque permite realizar campañas publicitarias sin necesidad de conocer los intereses del cliente. Porque el Big Data garantiza el éxito de todas las estrategias de marketing implementadas. Debido a la automatización de la publicidad en medios digitales sin segmentación.

Respecto a la velocidad en Big Data, ¿qué factor/es de negocio se encuentra/n estrechamente ligado/s a esta característica?. La toma de decisiones. La reducción del almacenamiento necesario. La implementación de inteligencia artificial en todas las áreas de la empresa. El incremento de la capacidad computacional para procesar datos sin intervención humana.

Seleccione las 4 respuestas correctas. Una compañía de transporte contrata los servicios de un administrador de datos. ¿Qué características deben cumplir los datos para asegurar su buena calidad?. Consistencia: deben ser datos que, al cruzarse con otros, no pierdan su esencia. Completitud: aunque en este momento sea irrelevante cierta parte del dato, en algún momento podría ser crítica. Exactitud: no podemos dudar si son datos correctos o no, deben ser exactos. Conformidad: los datos deben estar en un formato estandarizado y legible para su comprensión. Coherencia: deben representar siempre la misma información a pesar de los cambios de contexto. Claridad: deben ser datos fáciles de entender por cualquier usuario sin entrenamiento previo. Persistencia: deben ser almacenados indefinidamente sin posibilidad de eliminación.

Respecto a la característica veracidad en Big Data, ¿a qué hace referencia?. A la calidad de los datos que se utilizan para el análisis. A la cantidad de datos provenientes de fuentes confiables. A la velocidad con la que se generan los datos. A la capacidad de los datos para ser fácilmente interpretados por cualquier sistema de análisis.

¿Qué significa que un almacén de datos es variable en el tiempo?. Los datos se cargan con una referencia temporal. Los datos son reemplazados constantemente por nuevos datos sin almacenamiento. Los datos solo están disponibles por un tiempo limitado. La información almacenada cambia su estructura en función de la fecha de acceso.

¿Qué tipo de almacenamiento utilizan los sistemas corporativos?. Transaccionales. Bases de datos distribuidas exclusivamente en la nube. Almacenamiento en bases de datos relacionales solamente. Almacenamiento en blockchain.

Seleccione las 3 capas de las que consta una arquitectura de almacén de datos: Repositorio de documentos. Capa de inteligencia empresarial. Enterprise Data Warehouse (EDW). Capa de procesamiento en la nube. Servidores OLTP para almacenamiento. Módulos de visualización en tiempo real.

¿Cuáles son las anomalías típicas que se encargan de corregir los procesos ETL? Seleccione las 4 correctas: Longitud inconsistente de datos. Descripción inconsistente de datos. Distintas codificaciones para el mismo término. Valores nulos. Duplicación intencional de datos en múltiples fuentes. Redundancia de datos verificados en el sistema de origen.

¿Qué significa ETL en el contexto de Big Data?. Extract, Transform, and Load. Extraer, Transferir y Limitar. Eliminar, Transformar y Llenar. Evaluar, Transferir y Localizar.

¿Qué valoraciones aparecen como primordiales en la fase de carga de datos en los procesos ETL?. Destino y nivel de detalle de los datos. Velocidad y eficiencia de almacenamiento. La cantidad total de datos procesados. La redundancia y repetición de datos en todas las fases.

¿Cuál es el significado de Data Mining?. Es el proceso que tiene como objetivo explorar y analizar grandes volúmenes de datos para encontrar patrones ocultos y repetitivos. Es un sistema para almacenar datos en bases distribuidas. Es un proceso que se utiliza para borrar datos irrelevantes de las bases de datos. Es una técnica que permite la visualización de datos complejos en tiempo real.

¿Qué es KDD (Knowledge Discovery in Databases)?. Se refiere al amplio proceso de búsqueda de conocimientos en los datos que utiliza métodos de minería de datos. Es un proceso de almacenamiento eficiente para bases de datos estructuradas. Es una técnica para analizar datos en tiempo real sin necesidad de almacenamiento. Es el proceso de mover grandes cantidades de datos desde un sistema a otro sin transformación.

¿Qué tipo de datos provee un archivo de Word para su aplicación en Big Data?. No estructurados. Semi estructurados. Estructurados. Datos transaccionales.

¿Qué técnica de minería de datos se utiliza para predecir comportamientos futuros en base a datos históricos?. Regresión múltiple. Análisis de clustering. Segmentación por mercado. Árboles de decisión.

¿Cuáles son los componentes del ecosistema Hadoop? Seleccione las 4 respuestas correctas: Zookeeper. Sqoop. Hive. HBase. HDFS como único sistema de almacenamiento. MapReduce sin soporte de otro lenguaje.

¿Qué es un Data Mart?. Es un almacén de datos para satisfacer las necesidades de un departamento o sección dentro de una empresa. Es un almacén de datos que contiene la información de toda la empresa y abarca todos los departamentos. Es una base de datos en tiempo real que solo almacena datos estructurados. Es un servidor diseñado para gestionar el almacenamiento de datos no estructurados.

¿Cuáles son etapas del proceso de descubrimiento de conocimiento o KDD? Seleccione las 4 correctas: Selección de los datos. Transformación de los datos. Preprocesamiento de datos. Minería de datos. Almacenamiento distribuido. Implementación de sistemas de análisis OLAP.

¿Cuál es el objetivo del proceso de descubrimiento de conocimiento en bases de datos (KDD)?. Extraer conocimiento de datos en el contexto de bases de datos grandes mediante minería de datos. Identificar patrones estructurados en bases de datos transaccionales. Crear bases de datos relacionales a partir de datos no estructurados. Optimizar la velocidad de procesamiento en tiempo real.

Seleccione las 3 opciones correctas. Una empresa de logística está implementando una solución Big Data. ¿Cuáles de los siguientes perfiles profesionales deben intervenir para una solución Big Data en la empresa de logística?. Un científico de datos, porque es necesario para extraer conocimiento e información útil de los datos proporcionados. Un Data Steward, porque será quien mantenga la calidad, seguridad y disponibilidad de los datos. Un arquitecto de datos, porque definirá la estructura de organización y funcionamiento de la solución Big Data. Un ingeniero de software, para gestionar la infraestructura de servidores en la nube. Un especialista en redes, para optimizar la transmisión de datos a nivel de infraestructura. Un desarrollador de aplicaciones móviles, para integrar los datos en plataformas móviles.

Seleccione las 4 respuestas correctas. Una compañía de marketing debe comenzar a nutrir la laguna de datos. ¿Cuáles pueden ser las fuentes de datos desde donde tomar los datos?. Transacciones, porque tienen información de operaciones monetarias y telefónicas. Machine to machine (M2M), porque implican datos capturados por dispositivos y retransmitidos a través de redes. Datos biométricos, porque tienen información precisa sobre las personas. Web y medios sociales, porque abarcan datos generados en internet y redes sociales. Sensores en la nube para controlar el tráfico de la web. Información obtenida exclusivamente de bases de datos relacionales.

Seleccione las 4 respuestas correctas. El área de atención al cliente recibe reclamos por mail y a través del call center. Si quisiéramos analizar los dos tipos de datos que estas variables representan, diríamos que son: Datos estructurados, porque tienen un formato fijo y preestablecido. No estructurados, porque no tienen un formato determinado y pueden ingresar de cualquier forma. Datos transaccionales, porque son generados en tiempo real y tienen un formato determinado. Datos en tiempo real, porque se generan constantemente en interacciones con los clientes. Datos multiestructurados, porque se generan a través de diferentes dispositivos conectados. Datos analíticos, porque se pueden usar directamente para la toma de decisiones.

En el modelo multidimensional, ¿cómo se estructura su diseño?. En hechos, que son las actividades de interés para la empresa, y dimensiones, que son el contexto sobre el que se desea analizar esas actividades. En tablas de datos normalizadas que contienen información sobre los productos y servicios. En modelos predictivos que se basan en algoritmos de inteligencia artificial. En capas de almacenamiento en la nube que se distribuyen entre diferentes servidores.

Seleccione las 3 capas de las que consta una arquitectura de almacén de datos: Repositorio de documentos. Capa de inteligencia empresarial. Enterprise Data Warehouse (EDW). Capa de almacenamiento de datos relacionales. Servidores distribuidos para datos no estructurados. Capa de análisis de datos en tiempo real.

¿Cuáles son las anomalías típicas que se pueden encontrar al monitorear el proceso ETL? Seleccione las 4 respuestas correctas: Valores nulos. Longitud inconsistente de campos. Distintas codificaciones para el mismo término. Descripción inconsistente de campos. Redundancia controlada de datos en diferentes tablas. Información duplicada para mayor disponibilidad en el sistema.

En un proceso ETL, ¿cuál es uno de los objetivos de la fase de transformación?. Detectar y corregir inconsistencias. Dividir los datos en bloques más pequeños para un análisis más rápido. Almacenar los datos en formato distribuido. Eliminar los datos irrelevantes para reducir el volumen.

¿Cuáles son los componentes principales de Hadoop? Seleccione las 2 respuestas correctas: HDFS, que permite que el fichero de datos no se guarde en una única máquina, sino que se distribuya en distintos dispositivos. MapReduce, que permite que un programa, escrito en lenguajes comunes, se ejecute en un cluster de Hadoop. Apache Zookeeper, que gestiona las relaciones de los nodos en tiempo real. Spark, que optimiza el procesamiento distribuido de los datos. Apache Hive, que transforma los datos en tiempo real.

¿Qué se entiende por un modelo descriptivo en Big Data?. Es un modelo que refleja lo que sucedió en la compañía. Es un modelo que predice el comportamiento futuro de la empresa basándose en análisis estadísticos. Es un modelo que clasifica los datos no estructurados para un análisis posterior. Es un modelo que se utiliza exclusivamente en sistemas transaccionales para almacenar datos.

¿Qué técnicas de minería de datos son más relevantes para el análisis de grandes volúmenes de datos? Seleccione la opción correcta: Árboles de decisión, reglas de asociación, canasta de productos, regresión múltiple y regresión logística. Modelos de clustering, análisis de correlación lineal y técnicas de interpolación. Métodos de agrupación por medio y técnicas de análisis factorial. Redes neuronales, análisis de redes sociales y algoritmos de búsqueda heurística.

¿Qué perfil profesional es el responsable de definir el medio de almacenamiento de los datos en una empresa?. Arquitecto de datos. Científico de datos. Analista de datos. Especialista en redes.

Seleccione las 4 respuestas correctas. Teniendo en cuenta los 5 tipos de datos definidos para Big Data, estos pueden ser: Web y medios sociales. Máquina-a-máquina. Grandes datos transaccionales. Datos biométricos. Datos provenientes de sensores de temperatura. Datos encriptados.

¿Qué valoraciones primordiales debería tener una empresa en la fase de carga de datos en un proceso ETL?. El destino y nivel de detalle de los datos. El costo de almacenamiento y procesamiento. La cantidad de datos estructurados en el sistema. La velocidad de procesamiento sin importar la precisión.

¿Qué perfil profesional debe tener sólidos conocimientos en estadística?. Científico de datos. Administrador de datos. Ingeniero de datos. Especialista en redes.

¿Cuáles son las aplicaciones más comunes de la minería de datos?. Marketing, análisis de la cesta de la compra, segmentación de mercado, análisis de riesgo y gestión de fraudes. Predicción del comportamiento de usuarios en redes sociales y optimización del tiempo de respuesta de aplicaciones móviles. Análisis en tiempo real de datos estructurados y no estructurados provenientes de dispositivos IoT. Automatización de procesos industriales y gestión de inventarios en almacenes.

Seleccione las 3 respuestas correctas. Una empresa de transporte tiene un equipo de Big Data. ¿Qué perfiles profesionales son necesarios para el desarrollo correcto del equipo de Big Data?. Un estratega de datos (data strategist), para optimizar los negocios digitales a través de datos, cuadros de mando y métricas. Un arquitecto de datos (data architect), para gestionar el almacenaje, extracción y movimiento de datos. Un científico de datos (data scientist), para proporcionar conocimientos en computación, matemáticas y estadística. Un desarrollador de software, para diseñar aplicaciones web que integren los datos. Un gerente de proyectos, para coordinar las tareas relacionadas con la gestión de datos.

¿Qué se entiende por Data Lake en el contexto de Big Data?. Un repositorio centralizado que permite almacenar grandes cantidades de datos en su formato nativo, tanto estructurados como no estructurados. Un sistema de almacenamiento transaccional que solo almacena datos estructurados. Un sistema de bases de datos distribuidas que fragmenta los datos en diferentes servidores. Un sistema de bases de datos distribuidas que fragmenta los datos en diferentes servidores.

¿Cuáles son los dos grupos de técnicas utilizadas para analizar los datos bajo la minería de datos? Seleccione la opción correcta: Técnicas estadísticas y de inteligencia artificial. Técnicas de agrupamiento y normalización de datos. Algoritmos de búsqueda y análisis de tendencias. Modelos predictivos y análisis de series temporales.

Seleccione las 4 respuestas correctas. ¿Cuáles son las etapas del proceso de descubrimiento de conocimiento o KDD?. Selección de los datos. Transformación de los datos. Preprocesamiento de datos. Minería de datos. Almacenamiento en bases de datos. Segmentación de clientes.

¿Cuál es el primer paso del proceso de descubrimiento de conocimiento?. La integración y recopilación de los datos a analizar. Definir los algoritmos para procesar los datos. Limpiar los datos para asegurar su calidad. Analizar los resultados en tiempo real.

¿Qué perfil profesional debe tener sólidos conocimientos en estadística?. Científico de datos. Ingeniero de datos. Administrador de sistemas. Arquitecto de datos.

Un modelo Big Data que refleja lo que sucedió en la compañía, es un: Modelo descriptivo. Modelo predictivo. Modelo prescriptivo. Modelo transaccional.

La empresa para la que trabajas te pregunta para qué puede ser usada la información o conocimiento que se obtiene al emplear técnicas de minería de datos que propusiste. Seleccione las 4 respuestas: Mejorar las relaciones con los clientes. Aumentar los ingresos. Reducir los riesgos. Reducir los costos. Implementar nuevas políticas de privacidad. Mejorar la infraestructura de red. Optimizar los procesos de almacenamiento en la nube.

A la minería de datos también se la conoce por otros nombres como: Extracción de conocimiento, análisis de patrones y datos, machine learning, entre otros. Almacenamiento distribuido, análisis de tendencias y procesamiento transaccional. Inteligencia empresarial, gestión de datos estructurados y supervisión en tiempo real. Creación de redes neuronales, minería de redes y optimización de sistemas.

Si trabajas como científico de datos y tienes que seleccionar las técnicas más relevantes de la minería de datos, ¿cuáles seleccionarías? Seleccione la opción correcta: Árboles de decisión, reglas de asociación, canasta de productos, regresión múltiple y regresión logística. Redes neuronales, algoritmos genéticos, clasificación por k-medias y análisis de series temporales. Clustering jerárquico, modelos de interpolación, segmentación de mercado y reglas difusas. Análisis factorial, minería de texto, regresión polinomial y modelos de optimización.

Denunciar Test