option
Cuestiones
ayuda
daypo
buscar.php
TEST BORRADO, QUIZÁS LE INTERESE: Test errores Big data
COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Test errores Big data

Descripción:
Test errores Big data

Autor:
Pablo
OTROS TESTS DEL AUTOR

Fecha de Creación:
30/04/2024

Categoría: Informática

Número Preguntas: 64
COMPARTE EL TEST
COMENTARNuevo Comentario
No hay ningún comentario sobre este test.
Temario:
MongoDB BSON nos ofrece un mayor tipo de datos que JSON, teniendo soporte nativo para: Show dbs, muestra un listado de las tablas disponibles Tratar todos los números como punto flotantes y para tipos enteros muy grandes existe NumberLong(), que posee 32 bits Devolver las fechas, ya sea como un objeto de tipo Date o un String Date() nos devuelve la fecha actual como un String.
La unidad básica de datos de MongoDB es: Una vista (view) y se podría decir que es el equivalente a un registro en las bases de datos relacionales (pero ofreciendo muchísima menos flexibilidad) Un documento (document) y se podría decir que es el equivalente a un registro en las bases de datos relacionales (pero ofreciendo muchísima más flexibilidad) Una vista (view) y se podría decir que es el equivalente a un registro en las bases de datos relacionales (pero ofreciendo muchísima más flexibilidad).
El Clasificador Bayesiano ingenuo se basa en: El teorema de Bayes, y se fundamenta en que los datos pertenecen a una clase específica, por lo que es necesario ningún dato para su entrenamiento El teorema de Bayes, y se fundamenta en que los datos pertenecen a una clase específica El teorema de Bayes, y se fundamenta en que los datos pertenecen a una clase específica, por lo que es necesario un gran volumen de datos para su entrenamiento.
Los sistemas de apoyo a la decisión –DSS– son: Sistemas informáticos que facilitan la toma de decisiones en una empresa, de tal manera que no podemos considerar el DSS como un proceso Sistemas informáticos que facilitan la toma de decisiones en una empresa Sistemas informáticos que facilitan la toma de decisiones en una empresa, de tal manera que no podemos considerar el DSS como una propia aplicación.
Para entender los esquemas de Datawarehouse, primero hay que estudiar tres conceptos muy importantes. Uno de ellos es la Tabla de Hechos, que consistiría en: Una propiedad con la que se puede realizar cálculos, promedios, mínimos, máximos Un conjunto de datos asociados, y está compuesta por medidas y dimensiones Una colección de información sobre un evento que se puede medir.
El data warehouse está conformado por tres elementos fundamentales. El Data Access Manager es: El encargado de la carga de los datos provenientes de otras fuentes tales como ERPs, sistemas, aplicaciones, etc El encargado de conectar los datos con el usuario final, haciendo uso de herramientas especializadas, al estilo de herramientas de data mining La parte de data warehouse que se encarga de gestionar la enorme cantidad de datos.
En el modelo relacional, como ya sabemos, se organiza la información de la base de datos utilizando un conjunto de tablas, donde: El esquema está formado por una serie de columnas con nombres únicos (las columnas se denominan también campos o atributos) En el modelo relacional tanto los datos como las relaciones se guardan usando columnas En el modelo relacional las tablas nunca tienen nombres únicos.
Un petabyte equivale a: 1 000 000 000 000 de bytes 1 000 000 de bytes 1 000 000 000 000 000 de bytes.
Actualmente muchas organizaciones están capturando, y generando volúmenes de información para fines regulatorios con una periodicidad de: 3 o más años Les es indiferente y no lo necesitan para su operativa diaria De 1 o 2 años.
Dentro del modelado de datos de MongoDB, Sharding: Para disminuir el tiempo de procesamiento, porque siempre se realizará todo en una sola operación. También disminuye la cantidad de operaciones o peticiones al servidor Permite proveer un escalado horizontal, cuando se tiene gran cantidad de datos para procesar Soporta las transacciones múltiples a través de replica-sets y sharded clusters.
Dentro de la fase de planificación, What for sería: El consumidor al que se destinará el producto del análisis resultante El objetivo del destinatario del análisis El modo de presentar el análisis.
En 1992, Al Gore creó el NII o el proyecto National Information Infraestructure, para fomentar el desarrollo económico y por consiguiente el liderazgo mundial de EE. UU. como potencia, basado en los principios de: Fomentar la Industria de las TIC, la gestión de cambios, el coste de los elementos materiales, y generalizar la idea de servicio universal Fomentar el coste de los elementos materiales, planes de formación y la difusión de las TIC americanas Fomentar las inversiones privadas en la NII, promover la competitividad, y generar la idea de servicio universal.
La cardinalidad de asignación: Es una obligación que deben cumplir los datos incluidos en una BB DD y hace referencia al número de instancias de una entidad No determina el tipo de relación que se establece entre las tablas Es la entidad la que tiene cardinalidad de asignación.
La política para la sociedad de la información de la UE está basada en: Fomentar la Industria de las TIC, la gestión de cambios, el coste de los elementos materiales y generalizar la idea de servicio universal Se debe garantizar el servicio universal, la financiación de la sociedad de la información corresponde al sector privado, y es necesario sensibilizar al gran público de manera que debe recibir la información adecuada Alentar la inversión privada, promover la competencia, crear una regulación flexible e inteligente y asegurar el servicio universal.
¿Cuál es el operador que se utiliza para eliminar un elemento de un array?: El operador $not El operador $pull El operador $regex.
Dentro de las tareas en Trello se pueden recoger diversos ítems de información como: La Descripción, que es una característica muy interesante porque permite que aquellas tarjetas que reflejen tareas muy complejas puedan mostrar estados intermedios La Actividad, que recoge de forma cronológica e identificando a su autor, los eventos que han tenido lugar alrededor de una tarjeta El Checklist, que recoge de forma cronológica e identificando a su autor, los eventos que han tenido lugar alrededor de una tarjeta.
Una de las diferencias principales entre XML y Power Query es: XML es un lenguaje en el cual usar tildes puede generar problemas, por lo que, habitualmente, los desarrolladores no las utilizan, aunque pongan los nombres de los campos en español. En Power Query no tenemos ese tipo de problemas, así que, si queremos, podremos cambiar los nombres de las columnas y añadir las tildes Power Query es un lenguaje en el cual usar tildes puede generar problemas, por lo que, habitualmente, los desarrolladores no las utilizan, aunque pongan los nombres de los campos en español. En XML, no tenemos ese tipo de problemas, así que, si queremos, podremos cambiar los nombres de las columnas y añadir las tildes XML es un lenguaje en el cual usar tildes puede generar problemas, por lo que, habitualmente, los desarrolladores no las utilizan, aunque pongan los nombres de los campos en español. En Power Query no tenemos ese tipo de problemas, así que, si queremos, podremos cambiar los nombres de las columnas, pero no añadir las tildes.
La estandarización ANSI son siglas que traducidas al español significan: SGDBDR Instituto Nacional Estadounidense de estándares ISO.
A grandes rasgos, las fases en las que se puede dividir el proceso de la ciencia de datos podrían ser: Recepción, captura y presentación Recepción, patrón y presentación Captura, Análisis y Presentación.
El uso de Explain es donde se encuentran las estadísticas de la ejecución y dispondrán de ciertos parámetros que se podrán tener en cuenta a la hora de la optimización, tales como: ExecutionStats, nReturned y docsExaminated NReturned, executionTimeMillisEstimate y docsExamined QueryPlanner, nReturned, y docsExaminated.
Dentro de los esquemas de Datawarehouse tenemos distintos tipos. Uno de ellos sería el Esquema de Estrella, cuyas ventajas serían: Las consultas son sencillas y no requieren operaciones de tipo join Ahorra espacio de almacenamiento Muchas herramientas están optimizadas para el trabajo con este tipo de esquemas.
Antes de profundizar en la arquitectura del Datawarehouse, vamos a enumerar alguna regla básica de la evolución de la tecnología: Ley de Butter, que establece que la capacidad de almacenamiento por centímetro cuadrado se duplica cada 13 meses Ley de Moore, que establece que las capacidades de comunicación duplican la velocidad cada 9 meses Ley de Krider, que establece que la capacidad de almacenamiento por centímetro cuadrado se duplica cada 13 meses.
La arquitectura básica de MapReduce es de tipo maestro / esclavo, por lo que se compone de dos elementos, que son: El servidor maestro y los servidores esclavos, tres por cada clúster donde se realizan todas las operaciones en paralelo El servidor maestro y los servidores esclavos, uno por cada clúster donde se realizan todas las operaciones en paralelo El servidor maestro y los servidores esclavos, dos por cada clúster donde se realizan todas las operaciones en paralelo.
Dentro de la gestión del cambio tenemos el origen de los problemas, que serán: Ignorancia, ingenuidad, o negligencia Participación y dependencia de grupos de personas muy heterogéneos Los motores de cambio en las organizaciones, y el grado elevado de incertidumbre.
En las tendencias actuales, surgen los desarrollos de una base de datos semántica con almacenamiento distribuido entre una red de ordenadores, junto con sistemas de extracción de información y un conjunto de ontologías de aplicación en el ámbito del negocio concreto de la empresa que la utilice. Todo ello basado en la integración de la novedosa tecnología semántica para el procesado de datos en inteligencia. Este tipo de productos integra tres tecnologías clave bajo un mismo entorno, cada una de las cuales resuelve un problema esencial en los sistemas de inteligencia de negocio, que son: Bases de datos de referencia, Sistemas de valor y Sistemas de extracción de información Bases de datos semánticas, datos y las reglas lógicas y por último los Sistemas de extracción de información Bases de datos de referencia, Sistemas de valor y Construcción de fórmulas .
Para aplicar técnicas de clustering tenemos que tener en cuenta que: Los datos no los agrupamos en clases Es una técnica de aprendizaje sin supervisión que no requiere que los datos estén previamente etiquetados Es una técnica de aprendizaje sin supervisión que requiere que los datos estén previamente etiquetados.
Dentro de los tipos de los datamarts, los híbridos serían: Los que nos permitirán almacenar nuestros datos de forma centralizada Los que usan varios tipos de fuentes para sus datos, tales como el data warehouse de la empresa y los suyos propios Los que no están relacionados con el almacén de datos principal y se usan comúnmente en departamento pequeños de la empresa.
Para entender los esquemas de Datawarehouse, primero hay que estudiar tres conceptos muy importantes. Uno de ellos es la Dimensión, que consistiría en: Un conjunto de datos asociados, y está compuesta por medidas y dimensiones Una propiedad con la que se puede realizar cálculos, promedios, mínimos, máximos Una colección de información sobre un evento que se puede medir.
Al Gore, en el cargo de vicepresidente de EE. UU., presentó el proyecto GII –Global Information Infraestructure– basado en principios como: Alentar la inversión privada, promover la competencia, crear una regulación flexible e inteligente y asegurar el servicio universal Fomentar la Industria de las TIC, la gestión de cambios, el coste de los elementos materiales y generalizar la idea de servicio universal Fomentar el coste de los elementos materiales, planes de formación y la difusión de las TIC americanas fomentando los cambios rápidos de la tecnología y de los mercados.
Dentro de la implantación de un proyecto de Big Data, tenemos la Consolidación de Datos, para disminuir el ruido en los datos en el escenario de Ruido en los Datos, como registros que se comportan de manera aleatoria sin seguir ningún patrón, para lo que habrá que realizar un plan de mitigación basado en: Inconsistencia en los datos, integración y transformación de datos, normalización y estandarización Métodos de agrupamiento, Clustering, regresión e inspección humana Cumplimentar manualmente los datos que faltan, usar alguna constante global, usar la media global para llenar ese atributo, usar un valor pronosticado con alta probabilidad e ignorar determinados valores.
La base de datos o repositorio más utilizado en los departamentos de comercial y de marketing son los denominados: DataWarehouse CRM DataMart.
Dentro de la fase de planificación, How sería: El consumidor al que se destinará el producto del análisis resultante El objetivo o decisión a tomar que el proceso de análisis debe asegurar El modo de presentar el análisis.
El modelo de capas es un punto de partida, pero una plataforma de Big Data está en constante evolución para responder a los nuevos retos del negocio. Como enfoque para este crecimiento a largo plazo, se entiende el ciclo de madurez de un proyecto Big Data distribuido a lo largo de las siguientes etapas: En primer lugar, abordaremos el diseño y creación de la plataforma de datos con un enfoque ágil, que sea rápidamente funcional y que aporte valor a todos los segmentos de usuarios En primer lugar, habría que definir la integración total entre la plataforma de Big Data y las capacidades de inteligencia artificial, de forma que muchos procesos analíticos sean completamente automatizados por dicha inteligencia artificial En primer lugar habría que potenciar las capacidades analíticas de la plataforma, dotando de inteligencia de forma incremental a las herramientas de explotación de datos.
Las tareas de esta etapa de análisis serían: Recopilación e Identificación Evaluación, integración de datos obtenidos, e interpretación Recopilación, identificación, descripción y análisis documental de los datos, excluyendo la indexación y el resumen.
Dentro de la tecnología OLAP tenemos la Inteligencia Temporal que se referiría a: La ayuda para ver los datos de una manera flexible en distintas dimensiones, por ejemplo: ventas por región, ventas por representantes de ventas, ventas por categorías de productos, etc Que todo tipo de estudios estadísticos están ligados a los sistemas OLAP como promedios, medias móviles etc Habilitar la comparación de cualquier tipo de variable a través del tiempo; por ejemplo, el mes actual versus el mes anterior.
Dentro de la gestión del tiempo para ordenar y visualizar adecuadamente las actividades podemos recurrir a una representación gráfica donde queden reflejadas principalmente: La tarea sucesora y tarea predecesora o aquella tarea que no puede comenzar o finalizar hasta que otra tarea comience o finalice La tarea sucesora y tarea predecesora El Diagrama de Gantt, Dependencias y Recursos.
Los agentes libres dentro de la etapa de procesamiento serían: Son los gestores documentales para la gestión de elevadas cantidades de información textual Son aplicaciones para identificar y extraer información en grandes volúmenes de datos Son aplicaciones informáticas destinadas a la indexación automática.
Las diversas opciones de almacenamiento de datos en la nube se agrupan generalmente en: El software tradicional de almacenamiento de datos desplegado en la infraestructura de la nube, almacén de datos tradicional alojado y gestionado en la nube por un tercero, en forma de servicio gestionado, y almacén de datos SaaS Las últimas tecnologías y arquitecturas, aumento de coste inicial, configuración de hardware y software y aumento de la infraestructura necesaria La división de una sola operación de computación para ejecutarla simultáneamente, gran número de procesos informáticos separados, multihilos, y multinstancia.
Para entender los esquemas de Datawarehouse, primero hay que estudiar tres conceptos muy importantes. Uno de ellos es la Medida, que consistiría en: Una colección de información sobre un evento que se puede medir Un conjunto de datos asociados, compuestos por medidas y dimensiones Una propiedad con la que se puede realizar cálculos, promedios, mínimos, máximos.
Las transacciones tienen que cumplir los principios ACID, que son: Atomicidad, coherencia, almacenamiento y durabilidad Atomicidad, consistencia, aislamiento y durabilidad Aceleración, coherencia, almacenamiento y dedicación.
El Big Data también se le denomina la tecnología de las 5 V compuesta por: Volumen, Velocidad, Variedad, Volatilidad y Viabilidad Volumen, Velocidad, Variedad, Volatilidad y Valor Volumen, Velocidad, Variedad, Veracidad y Valor.
Boehm determinó que los principales tipos de riesgos en los sistemas de información en un proyecto de Big Data y las respectivas fuentes donde se originan dichos riesgos son: Mantener un nivel de interlocución adecuado con todos los clientes externos Los recursos: planificación y/o presupuestos no realistas El segmentado de acuerdo con la organización de la empresa.
Dentro de la segmentación de los datos, podemos aplicar técnicas de clustering, muchas veces simplemente mediante la observación. El clustering sería: Una técnica de aprendizaje sin supervisión que requiere que los datos estén previamente etiquetados Cuando los datos no los agrupamos en clases Una técnica de aprendizaje sin supervisión que no requiere que los datos estén previamente etiquetados.
Desde un contexto temporal, teniendo en cuenta el instante de uso de la inteligencia, esta se divide en: Básica, actual y estimativa Recíproca, actual y estimativa Real, básica y estimativa.
La dificultad de gestionar el cambio generado por un proyecto dependerá del impacto y la dimensión que el proyecto tenga en la organización, clasificando las dimensiones del cambio en tres niveles: Gestión del alcance, carencias en la planificación de la comunicación, y probabilidad Gestión del alcance, estimación del tiempo y disponibilidad de los recursos Alcance reducido, moderado y gran alcance.
Los diferentes algoritmos en los que se puede dividir la ML –Machine Learning– serían: Desarrollados, testeados e implantados Las 3S: Soporte, Sistemático y Supervisados Supervisados, sin supervisión y reforzados.
Al Gore, en el cargo de vicepresidente de EE. UU., presentó el proyecto GII –Global Information Infraestructure– basado en principios como: Fomentar la Industria de las TIC, la gestión de cambios, el coste de los elementos materiales y generalizar la idea de servicio universal Fomentar el coste de los elementos materiales, planes de formación y la difusión de las TIC americanas fomentando los cambios rápidos de la tecnología y de los mercados Alentar la inversión privada, promover la competencia, crear una regulación flexible e inteligente y asegurar el servicio universal.
Para identificar si una solución construida está optimizada y cuenta con una arquitectura ad hoc para la nube, hay que tener en cuenta alguna de las siguientes características: Ofrecer almacenamiento centralizado de todos los datos y el escalado independiente de los recursos de computación y almacenamiento Almacenamiento de datos diseñado para arquitecturas más antiguas siendo costoso y con una escalabilidad limitada Facilitar el compartir datos, pero con la necesidad de definir APIs o estableciendo procedimientos de ETL.
NFS, SMB, POSIX y Object son: Lenguajes de programación orientado a objetos Tecnología de almacenamiento compartido Protocolos de comunicación.
La integración de muchas tecnologías (telefonía, mail, internet, etc) en la solución CRM es fundamental, por lo que habrá que tener en cuenta los siguientes aspectos: Creación de un comité, capacidad ejecutiva, dirección ejecutiva, y gestión de proyectos Perfiles complementarios, estrategia, marketing, tecnología, consultores, y proveedores Gestión de la relación, marketing, servicio al cliente, productividad de la herramienta y adaptabilidad e integración.
Dentro de los esquemas de Datawarehouse tenemos distintos tipos. Uno de ellos sería el Esquema de Estrella, cuyas desventajas serían: Su rendimiento suele ser bajo, debido a los joins que se deben realizar en sus consultas Gran complejidad en las consultas, debido a que los datos están normalizados Los procesos para la integridad de los datos son muy difíciles de aplicar, debido a la redundancia de los datos.
Algunas de las características de los indicadores y políticas de la información serían: El coste de los elementos materiales para su obtención El número de indicadores básicos no debe ser excesivo, incluir indicadores precisos y su definición, fáciles de interpretar y que tengan una metodología transparente La gestión de cambios, el coste de los elementos materiales para su obtención y las desigualdades de sus parámetros.
Asociado a la plataforma de datos y dentro de la estrategia de datos a la que darán soporte los distintos proyectos en cartera, para que sea adecuada debemos contemplar: Que la gestión financiera, si son proyectos estratégicos se puede pasar por alto su retorno de la inversión (ROI) Que los datos deben ser entendidos como una visión exclusivamente informática Que el objetivo debe ser que los datos internos y externos a la organización, estén al servicio de la planificación y ejecución estratégica de la empresa.
El empresario y político Joan Majó identifica alguna de las características de este modelo de sociedad que serían: El coste de los elementos materiales, el crecimiento de la riqueza global, la incorporación de nuevos conocimientos y la introducción masiva de la tecnología en los procesos de producción Las consecuencias de la revolución de las tecnologías de la información, las comunicaciones, avances en el ámbito tecnoeconómico y el coste de los elementos materiales Cambio de modelo social, el coste de los materiales, y desigualdades sociales.
Algunas de las tareas de mantenimiento de tablas que se pueden ejecutar con MySQL serían: Tabla de suma de comprobación, desfragmentar la tabla, vaciar la caché de la tabla, optimizar la tabla, etc NOT LIKE, tabla de suma de comprobación, y desfragmentar la tabla El valor de búsqueda, resultados nulos, tabla de suma de comprobación, y desfragmentar la tabla.
La gestión del alcance incluye: Inicio, Planificación, Pruebas, Validación, Verificación, Implantación y Control de cambios Inicio, Planificación, Pruebas, Definición, Verificación, Implantación y Control de cambios Inicio, Planificación, Definición, Verificación y Control de cambios.
Penteo, consultora y analista de mercados tecnológicos, en un informe afirma que: La migración a la nube se ha ralentizado, tal vez por la incertidumbre ante la explosión del Edge computing Los proyectos de transformación digital ya no se apoyan tanto en tecnologías tradicionales que se han renovado, como los CRM, junto con tecnologías emergentes y las operaciones en materia de Ciberseguridad han dejado de ser críticas El ERP ha dejado de ser un software importante en cuanto a compras por los departamentos de informática.
La disponibilidad de los Datawarehouse es un factor que hay que tener en cuenta respecto al de las actualizaciones de los programas informáticos. Diferentes proveedores adoptan diferentes enfoques durante la actualización como: Alta, Media y Baja Básico, Medio y Optimo Superior, Normal e inferior.
La mediana es: La suma de todos los datos dividida entre el número total de datos El valor que divide la distribución en dos partes iguales La selección del dato mayor, entre todos los valores recogidos.
Dentro de las bases de datos departamentales, tenemos HCM (Human Capital Management), que son: Sistemas de gestión del capital humano Sistemas con una clara orientación a la gestión, incluyendo procesos como la administración de las nóminas, la contabilidad de costes y otras políticas y procedimientos vinculados al personal Soluciones software que, además de incorporar las capacidades y funciones más comúnmente disponibles en los HCM, aportan una funcionalidad completa para la gestión salarial y las compensaciones o la llevanza del control horario.
Algunas de las ventajas del uso de OLAP serían: El habilitar la comparación de cualquier tipo de variable a través del tiempo, fuertes inversiones en el área de sistemas y la formación de los equipos, y aumento del CAPEX / OPEX El incremento en la productividad para los usuarios finales, Control sobre los datos corporativos, Reducción del tráfico generado por queries a diferencia de lo que ocurre en los data warehouse y el Aumento en la rentabilidad La ayuda para ver los datos de una manera flexible en distintas dimensiones, reducción de los equipos de sistemas, aumento del número de programadores en las áreas de Desarrollo y reciclado del personal de sistemas.
El análisis de tendencias es la dirección hacia la que se mueven unos valores en un espacio finito de tiempo, pudiendo ser alcista o bajista, lo que le permitirá a algunas empresas ver la evolución de los valores de mercado, para orientar su estrategia competitiva. Las medias más utilizadas para este análisis de tendencias pueden ser: Centro de gravedad y gestión de los desvíos Segmentación y gobernabilidad Centro de gravedad, y covarianza.
Otra herramienta del análisis estratégico es la conocida como matriz de Ansoff, matriz útil para determinar oportunidades de crecimiento en cada una de las unidades de negocio que componen una empresa, estableciendo cuáles son las posibles combinaciones que abordar en el futuro de la empresa. De este modo, las alternativas que una empresa puede abordar para diseñar su futuro estratégico son: Debilidades, Acciones, Fortalezas y Diversificación Penetración, Diferenciación, Desarrollo de mercados y Diversificación Déficits, Ajustes, Fomento y Opciones.
OLAP es: Un paradigma de diseño que busca patrones ocultos en los datos Un paradigma de diseño que no parte de la información conjunta de múltiples sistemas Un paradigma de diseño que nos provee de métodos para la extracción de información útil de un almacén de datos .
Denunciar Test