Diseños de investigacion y analisis de datos UNED
![]() |
![]() |
![]() |
Título del Test:![]() Diseños de investigacion y analisis de datos UNED Descripción: preguntas de teoria y de examenes anteriores Fecha de Creación: 2013/07/31 Categoría: UNED Número Preguntas: 166
|




Comentarios | |
---|---|
| |
| |
FIN DE LA LISTA |
Si a medida que aumenta el tamaño de la muestra tanto la varianza de la distribución de probabilidad de un estimador como su sesgo tiende a cero, decimos que el estimador es: suficiente. sesgado. consistente. A la probabilidad de rechazar H0 cuando es falsa se la denomina: error tipo I. nivel de confianza. potencia del contraste. En un caso práctico en el que utilizamos un contraste de hipótesis para dos medias en muestras independientes, lo más habitual es que las varianzas poblacionales sean: conocidas. desconocidas. ninguna de las anteriores. Para aplicar el test de Wilcoxon, además de que la variable dependiente esté medida a nivel ordinal, también se requiere: no son necesarios más supuestos;. la distribución de las diferencias de los rangos ha de ser simétrica;. la distribución de las diferencias ha de ser normal. ¿Qué supuestos debo verificar que se cumplen en este caso para aplicar el ANOVA?. las observaciones se distribuyen según la distribución F en los tres grupos;. las varianzas de los tres grupos deben ser similares;. la distribución de las puntuaciones es asimétrica en los tres grupos. Uno de los supuestos básicos del análisis de regresión simple es: los pronósticos y los errores están correlacionados;. las distribuciones condicionadas de los errores deben de tener una distribución normal;. No deben estar relacionadas la variables predictora y la variable dependiente o criterio. El tamaño de la muestra que se requiere para estimar la proporción poblacional con un nivel de confianza previamente fijado: aumenta cuando aumenta el error en la estimación. aumenta cuando disminuye el error en la estimación;. no depende del error en la estimación. Sean “X” e “Y” dos estimadores de un mismo parámetro, si la distribución de probabilidad de “X” tiene menor variabilidad que “Y”: el estimador “Y” es más eficiente;. el estimador “X” es más eficiente. el estimador “X” es más suficiente. El nivel de confianza se refiere a: La probabilidad de que el parámetro se encuentre dentro de un intervalo de confianza;. El valor inverso del error típico. La probabilidad de que el estadístico se encuentre dentro de la distribución muestral del parámetro. A la probabilidad de rechazar la hipótesis nula cuando es falsa se le denomina: nivel de confianza;. potencia del contraste;. nivel p-crítico. Para comprobar si la diferencia entre dos medias es significativa, calculamos: el estadístico de contraste;. el tamaño del efecto;. las dos opciones anteriores son verdaderas. Cuando se aplica un Análisis de la Varianza de un factor, las varianzas de los grupos a comparar deben de cumplir el supuesto de: complementariedad y exhaustividad;. homocedasticidad. independencia. ¿Cuál de las siguientes afirmaciones es VERDADERA? La distribución muestral de un estadístico: proporciona información sobre las características de la muestra siempre que esta sea representativa de la población;. proporciona todos los valores que puede asumir un estadístico junto con la probabilidad de obtener ese valor;. es normal o tiende a la normal con independencia del tamaño de la muestra. ¿Cuál de las siguientes afirmaciones es FALSA?: Potencia más nivel de significación = 1;. Potencia mas error tipo II = 1;. error tipo I más nivel de confianza = 1. ¿Cuál de las siguientes afirmaciones es VERDADERA? Desde un punto de vista conceptual, la potencia de un contraste: es el complementario del nivel de confianza;. disminuye cuando aumenta el nivel de significación;. es la sensibilidad de un experimento para detectar una diferencia significativa cuando la hipótesis nula es falsa. A medida que aumenta el tamaño de la muestra, la distribución muestral de la proporción se aproxima a una distribución: normal. binomial. ninguna de las anteriores. La siguiente afirmación: "La precisión del intervalo de confianza aumenta al aumentar el tamaño de la muestra" es: falsa. verdadera para la media y la proporción y falsa para la varianza;. siempre verdadera. Entre dos estimadores de un mismo parámetro poblacional, es más eficiente aquel: cuya distribución tenga menos variabilidad;. que se concentra en un rango cada vez más estrecho alrededor de su media a medida que aumenta el tamaño de la muestra;. que utiliza toda la Información muestral relacionada con el parámetro. El tamaño del efecto: depende del tamaño muestral;. es independiente del tamaño muestral;. si es grande, necesariamente obtenemos resultados significativos. Si trabajamos con dos grupos siendo los tamaños de las muestras: n1 = 30 y n2 =35, sabemos que: se trata de un contraste paramétrico;. las muestras están relacionadas;. las muestras son independientes. Uno de los supuestos básicos del análisis de regresión simple es: los pronósticos y los errores son independientes. las distribuciones condicionadas de los errores deben de tener una distribución uniforme;. no deben estar relacionadas las variables predictora y la variable dependiente o criterio. El tamaño de la muestra que se requiere para estimar la proporción poblacional con un nivel de confianza previamente fijado: aumenta cuando aumenta el error en la estimación;. aumenta cuando disminuye el error en la estimación;. no depende del error en la estimación. Sean “X” e “Y” dos estimadores de un mismo parámetro, si la distribución de probabilidad de “X” tiene menor variabilidad que “Y”: el estimador “Y” es más eficiente;. el estimador “X” es más eficiente;. el estimador “X” es más suficiente. El nivel de confianza se refiere a: La probabilidad de que el parámetro se encuentre dentro de un intervalo de confianza;. El valor inverso del error típico;. La probabilidad de que el estadístico se encuentre dentro de la distribución muestral del parámetro. A la probabilidad de rechazar la hipótesis nula cuando es falsa se le denomina: nivel de confianza;. potencia del contraste;. nivel p crítico. ¿Cuál de las siguientes afirmaciones es VERDADERA?: Potencia más nivel de confianza es mayor o igual que uno. Error tipo I más error tipo II es igual a 1;. Nivel de confianza más nivel crítico p es igual a 1. El máximo error que el investigador está dispuesto a admitir para rechazar una hipótesis nula que es verdadera, se llama: nivel crítico. nivel de confianza;. nivel de significación. Si en un contraste unilateral sobre dos medias con varianzas desconocidas obtenemos un estadístico de contraste “T” igual a cero, podemos deducir que el nivel crítico es: 0,5. 1. no podemos saberlo. El cumplimiento del supuesto de homocedasticidad en regresión no puede evaluarse en este conjunto de datos debido a que: el proceso de selección de los datos no ha sido aleatorio;. para cada valor de X solo tenemos un valor de Y;. no hay normalidad de las distribuciones condicionadas de Y con respecto a Xi. En un análisis de regresión múltiple tendremos tantas pendientes: como queramos;. como nos indiquen los grados de libertad de la fuente de variación “Residual” en la tabla del ANOVA;. como variables independientes hayamos introducido en el modelo. En un contraste sobre dos proporciones con muestras relacionadas, cuál de los siguientes estadísticos es insensible a la dirección del cambio producido: Chi cuadrado de la prueba de McNemar;. el estadístico Z;. no es correcta. En un contraste de hipotesis sobre la media aritmetica,el valor absoluto del valor critico: es el mismo en un contraste unilateral izquierdo y un contraste unilateral derecho. es el mismo en un contraste bilateral y unilateral derecho. es el mismo en un unilateral izquierdo y un contraste bilateral. La potencia de un contraste de hipotesis sera mayor: A medida que aumenta el tamaño de la muestra. A medida que disminuye el tamaño de la muestra. siempre es la misma suponiendo que H1 es verdadera. Las curvas de potencia permiten localizar la potencia de un contraste en funcion de: el tamaño de la poblacion y de la muestra. el valor de H1 y el tamaño de la muestra. el tamaño de la poblacion y el valor de H1. La ecuacion generica de regresion de Y sobre X ,Y=a+bX+€ ,es una relacion: probabilistica ya que depende de la cantidad aleatoria €. funcional cubica ya que existen tres componentes aditivos en la ecuacion. determinista ya que el valor de Y esta completamente determinado por el valor de X. En regresion lineal simple, se asume que la desviacion tipica del error en la ecuacion Y=a+bX+€ : es igual a la unidad. es la misma para cada valor particular de X. es igual a 0. Cual de las siguientes distribuciones de probabilidad NO es simetrica en torno a cero: la normal tipificada. chi cuadrado. T de student. El error tipico de la media es: el error que sumamos y restamos a la media aritmetica para calcular el intervalo de confianza. la desviacion tipica de la distribucion muestral de la media. el error que cometemos si rechazamos una hipotesis nula verdadera. Cual de los siguientes estimadores sobre la tendencia central de una distribucion es suficiente: la mediana. la media aritmetica. la moda. El valor critico para tomar una decision respecto a la hipotesis nula depende: del nivel de confianza que se establezca. de los grados de libertad de la distribucion muestral de la diferencia de proporciones. de si se conoce o no la varianza poblacional de las diferencias. Uno de los supuestos basicos del analisis de regresion simple es: los pronosticos y los errores estan correlacionados. las distribuciones condicionadas de los errores deben de tener una distribucion normal. No deben estar relacionadas las variables predictora y la variable dependiente o criterio. Con el análisis inferencial de los datos se pretende: Realizar un análisis descriptivo de los datos de la investigación. Inferir los parámetros de la población a partir de los estadísticos muestrales. Describir los estadísticos de una muestra. ¿Cuál de las siguientes afirmaciones es verdadera?: A los índices que resumen la información de una población los denominamos parámetros y los designamos con letras griegas. A los índices que resumen la información de una muestra los denominamos parámetros y los designamos con letras griegas. A los índices que resumen la información de una población los denominamos estadísticos y los designamos con letras griegas. Se llama error típico de la distribución muestral de un estadístico a: La varianza de la variable en la población. La desviación típica de la variable en la muestra. La desviación típica de la distribución muestral de un estadístico. La representatividad de la muestra es la característica que permite: Generalizar los estudios de la muestra a la población. Conocer las distribuciones de probabilidad de las variables. Calcular los estadísticos. Para poder realizar una inferencia: Nuestra muestra debe ser tan grande como la población. Lo que interesa es trabajar con muestras representativas. Nuestra muestra no debe obtenerse al azar. El error muestral es la diferencia entre: El resultado obtenido en la muestra y el que se habría obtenido si hubiésemos hecho un censo siguiendo los mismos procedimientos que en la muestra. El tamaño de la población y el tamaño de la muestra, (N – n). Las medias de las poblaciones. Llamamos estadísticos a: Las medidas realizadas en la población. Las medidas realizadas en la muestra. La distribución de frecuencias de los valores que toma un estadístico “I” en el muestreo. Llamamos parámetros poblacionales a: Las medidas realizadas en la población. Las medidas realizadas en la muestra. La distribución de frecuencias de los valores (o funciones) que toma un estadístico “I” en el muestreo. La distribución muestral de la media es normal: Cuando es normal la distribución de la variable estudiada o cuando aumenta suficientemente el tamaño de la muestra. Sólo cuando es normal la distribución de la variable estudiada. Sólo cuando el tamaño de la muestra es el adecuado. La distribución normal tipificada es simétrica en torno: A cero. A la media de la variable en la muestra. A la media de la variable en la población. El error típico de la distribución muestral del estadístico varianza es: La desviación típica de la distribución muestral de la varianza. La varianza de la distribución muestral de la desviación típica. La varianza de la distribución muestral de la varianza. La distribución normal es simétrica en torno a. La media y a la varianza, dado que son los dos parámetros de la distribución. La varianza. La media. La varianza de la distribución muestral de la media en muestras aleatorias simples: Es igual a la varianza poblacional. Es igual a la varianza poblacional dividida por el número de elementos de la muestra. Es mayor que la varianza poblacional. Una característica esencial del muestreo aleatorio es que: Se mantiene constante el tamaño de la población. El tamaño de la población variará en cada extracción. Todas las muestras posibles son equiprobables. Cuando operamos con puntuaciones típicas, todas las posibles distribuciones normales de la media: Se convierten en una única distribución normal con media igual a cero y varianza igual a 1. La alternativa “a” es correcta sólo cuando “n” es grande. Ambas alternativas son incorrectas. La media de la distribución muestral de la media es igual a: La media poblacional dividido entre el número de elementos de la muestra. La media poblacional. Depende si son muestras con o sin reemplazamiento. La proporción muestral: Sigue siempre una distribución normal. Se aproxima a una distribución normal conforme el número de elementos de la muestra crece. Sigue una distribución de Bernouilli. Extraemos una muestra aleatoria de la población española y anotamos el número de personas que están a favor del examen de reválida. ¿Cuál es el estimador insesgado de la proporción poblacional de personas a favor del examen de reválida?: La proporción poblacional de personas a favor del examen de reválida. Cualquier estimador que sea eficiente. La proporción de personas a favor del examen de reválida de la muestra. Un estimador es: Un parámetro que utilizamos para estimar los estadísticos. Un estadístico que utilizamos para estimar los parámetros de la muestra. Un estadístico que utilizamos para estimar parámetros poblacionales. Un estadístico es una característica de. Una muestra. Una población. Una población representativa. La varianza insesgada: Es un estimador de la varianza muestral. Es la varianza muestral multiplicada por “n”y dividida por “n-1”. Es la varianza muestral multiplicada por “n-1” y dividida por “n”. Extraemos una muestra aleatoria de la población española, les pasamos un cuestionario de creatividad, sumamos todas las puntuaciones obtenidas por los sujetos y las dividimos por el número de sujetos de la muestra. ¿Cuál es el estimador insesgado de la media poblacional en creatividad?: La proporción de sujetos creativos en la muestra. La media de la creatividad en la muestra. La media de la creatividad en la población. Un estimador es suficiente: Si la media de la distribución de medias de las muestras coincide con el valor del parámetro que queremos estimar. Si es consistente. si se utiliza toda la información de la muestra para estimar el parámetro. La media muestral es: Un estimador suficiente de la media poblacional. Un estimador sesgado de la media poblacional. Ambas respuestas son correctas. Un estimador es más eficiente: Cuanto mayor sea la varianza de la distribución muestral del estimador. Cuanto menos varíe el valor del estimador de una muestra a otra. Ambas respuestas son incorrectas. Se dice que un estimador es insesgado cuando: La media de su distribución muestral coincide con el valor del parámetro que se quiere estimar. La media correspondiente a la característica en la muestra coincide con la media de la característica en la población. Ambas respuestas son correctas. Una estimación puntual se diferencia de una estimación por intervalos en que. En la estimación puntual se toma un valor muestral concreto como estimación del parámetro, mientras que en la estimación por intervalos se establece un rango de valores dentro del cual estaría el valor del parámetro. En la estimación puntual no se establece un intervalo de confianza. Ambas respuestas son correctas. La media muestral es: Un estimador insesgado de la media poblacional. Un estimador suficiente de la media poblacional. Ambas respuestas son correctas. Un estimador. Es una función calculada en una población. Es una función calculada en una muestra. Siempre toma el mismo valor a través de todas las muestras. Manteniendo constantes todos los factores excepto el nivel de confianza, ¿qué estimación por intervalos será más precisa?. Al 99 %;. Al 95 %;. La precisión no se relaciona con el nivel de confianza. Señala la afirmación FALSA: Sea cual sea la forma de la distribución de una variable, la distribución muestral de la media es normal cuando el tamaño de la muestra no es grande. Sea cual sea la forma de la distribución de la variable, la distribución muestral de la media es normal, cuando el tamaño de la muestra es suficientemente grande. Sea cual sea la forma de la distribución de una variable, la media de la distribución muestral de la media es la media de la población. Si la varianza de la muestra es 9: La varianza insesgada será mayor que 9. La varianza insesgada será 10. La varianza insesgada será menor que 9. Las hipótesis estadísticas son. Hipótesis que se hacen sobre determinadas características de una distribución. Hipótesis científicas formuladas en términos estadísticos. Ambas respuestas son correctas. La probabilidad del error tipo I representa. La probabilidad de rechazar la hipótesis nula siendo verdadera. La probabilidad de aceptar la hipótesis nula siendo verdadera. la probabilidad de aceptar la hipótesis nula siendo falsa . Si la probabilidad de aceptar una hipótesis alternativa verdadera es 0’70, ¿cuánto valdrá la probabilidad de rechazar una hipótesis nula falsa, siendo 0’95 el nivel de confianza?: 0’30;. 0’70;. 0’05. Llamaremos potencia de contraste. A la probabilidad de rechazar una hipótesis alternativa falsa. A la probabilidad de aceptar una hipótesis alternativa verdadera. A la probabilidad de rechazar una hipótesis nula cierta . Se llama nivel de significación: A la probabilidad de rechazar la hipótesis nula siendo falsa. A la probabilidad de rechazar la hipótesis alternativa siendo cierta. A la probabilidad de rechazar la hipótesis nula siendo cierta. Las hipótesis estadísticas nula y alternativa: Deben ser exhaustivas y mutuamente exclusivas. Pueden formularse en términos de la forma de la distribución o de los estadísticos muestrales. Ambas alternativas son correctas. Un estadístico de contraste. Es una variable aleatoria. Es un parámetro. No varía de una muestra a otra, su valor es constante. El valor crítico se obtiene. A partir del nivel de significación adoptado. A partir del nivel crítico “p” obtenido. A partir de cualquiera de los dos. El nivel crítico: Representa la probabilidad de obtener un resultado al menos tan extremo como el valor puntual hallado, dada la hipótesis nula. Su valor depende del nivel de significación alfa. Su valor depende de la probabilidad del error tipo I. El valor crítico: Cambia según el valor muestral del estadístico. Depende de α . Se obtiene a partir del nivel crítico “p”. Sobre el nivel crítico “p”: Para su cálculo debemos conocer la distribución muestral del estadístico de contraste. No es posible calcularlo si no conocemos el valor que toma el nivel de significación alfa. Puede ser nulo y negativo. Si obtenemos un nivel crítico “p” menor que el alfa adoptado quiere decir que. Los resultados son improbables bajo el supuesto de que la hipótesis nula sea cierta. los resultados son estadísticamente significativos. Ambas respuestas son correctas. “Alfa” y el nivel crítico “p”. Son probabilidades. Si son iguales se acepta la hipótesis nula. El primero se calcula una vez obtenidos los datos y el segundo se fija antes de obtenerlos. En el cálculo del estadístico de contraste T para el caso de dos muestras independientes es necesario conocer: La varianza de cada población. La varianza insesgada de cada población. La varianza insesgada de cada muestra. La homocedasticidad. Es un supuesto que debe cumplirse en el caso de contrastes de medias de dos muestras independientes cuando n 1 ≠ n 2. Hace referencia al nivel de medida de la variable dependiente (es una característica de dos medidas tomadas con el mismo instrumento. Sólo debe tenerse en cuenta en contrastes sobre la varianza. En el contraste estadístico de dos muestras independientes: Lo más habitual es desconocer el valor de las varianzas poblacionales. Lo más habitual es utilizar el estadístico de contraste Z. Debe utilizarse el estadístico de contraste X 2. Cuando estamos interesados en conocer si se ha reducido significativamente la frecuencia de los síntomas de ansiedad en los sujetos tratados con reestructuración cognitiva, que en otro grupo tratado con biofeedback de la conductancia de la piel, podemos: Hacer un contraste de medias. Hacer un contraste de proporciones. Hacer un contraste de varianzas. En el contraste de medias para dos muestras independientes que estudiamos en este curso, el interés del investigador se centra en: Inferir el efecto de una condición de un experimento basándose en la medida de dos variables dependientes distintas. Inferir el efecto de las dos condiciones de un experimento basándose en la medida de dos variables dependientes distintas. Inferir el efecto de dos condiciones de un experimento basándose en la medida de una misma variable dependiente. El uso del estadístico T (para dos muestras independientes) exige el cumplimiento de la siguiente condición: Poblaciones con cualquier tipo de distribución si n1 ≥ 30 y n 2 ≥ 30. Variable independiente medida, al menos, a nivel de intervalo. ndependientemente del tamaño de las muestras, las dos poblaciones deben ser normales. La homocedasticidad significa que las varianzas: Sean o no conocidas, son diferentes. Son iguales. Son proporcionales. Para contrastar hipótesis relativas a proporciones entre dos grupos es imprescindible que: La variable dependiente sea dicotómica o esté dicotomizada. La variable independiente siga la distribución normal. Este tipo de análisis no supone restricciones sobre las características de las variables en estudio, tanto independientes como dependientes. El contraste entre varianzas de muestras independientes permite probar: El supuesto de normalidad. El supuesto de homocedasticidad. El supuesto de independencia de las observaciones. Cuando se mide una variable en los dos miembros de n pares de sujetos, siendo los miembros de cada par muy similares en variables relevantes del estudio, asumiremos que las observaciones de ambas muestras: Están relacionadas, pero ello no implica que las diferencias entre cada par deobservaciones lo estén. Son independientes. Están relacionadas, lo cual implica que las diferencias entre cada par de observaciones, también lo están. Se desea averiguar si una terapia de relajación reduce la ansiedad en los corredores de velocidad. Se toman medidas en ansiedad en una muestra aleatoria antes y después de aplicarles la terapia derelajación. Sabemos que la variable está medida a nivel de intervalo, que se distribuye normalmente y que la varianza poblacional de las diferencias es desconocida. ¿Cuál sería la hipótesis alternativa?: H1: μ antes> μ después ;. H1: μdespués< μ antes ;. Ambas respuestas son correctas. Cuando un investigador simplemente quiere saber si los niveles del tratamiento administrado producen diferencias, sin interesarle la cantidad (nivel) exacta administrada, diremos que: Es un modelo de efectos fijos. Es un modelo mixto. Es un modelo de efectos aleatorios. Se denominan comparaciones “a posteriori” aquellas que: se realizan después de haber obtenido un valor F significativo y se desea un conocimiento más exacto sobre la causa de las diferencias;. se aplican a diseños no equilibrados;. el investigador prevé hacer antes de hacer el experimento. En un modelo unifactorial, cuando se quiere saber entre qué medias se dan las diferencias sin realizar ningún tipo de análisis de varianza se debe: Realizar comparaciones múltiples a posteriori. Realizar comparaciones múltiples a priori. Realizar una prueba de Scheffé. El valor crítico para el estadístico F del análisis de varianza de medidas repetidas se obtiene: a partir del nivel de significación alfa. a partir del nivel crítico p obtenido. en algunos casos a partir del nivel de significación dividido por dos. El supuesto de “No interacción persona y tratamiento” es uno de los supuestos. en el ANOVA de medidas repetidas. en el ANOVA de medidas independientes. siempre que no haya más de un factor de tratamiento, independientemente de que sea o no de medidas repetidas. El análisis de varianza de medidas repetidas de un factor de efectos fijos: Permite realizar un contraste sobre medias. Es un estadístico de contraste. Permite realizar contrastes sobre la varianza cuando las observaciones están relacionadas. La zona de rechazo de la hipótesis nula mediante el estadístico F para contrastar la igualdad de dos medias con observaciones relacionadas: incluye todos los valores de la distribución muestral del estadístico mayores que el valor crítico. Es igual al valor crítico. en ciertos casos, se reparte entre los dos extremos de la distribución. Para aplicar el análisis de varianza unifactorial de medidas repetidas, el nivel de medida debe ser: de intervalo o superior. de razón o inferior. inferior al ordinal. El análisis de varianza unifactorial de medidas repetidas: controla las diferencias entre los sujetos. permite analizar el efecto de una variable dependiente sobre una variable independiente. ambas respuestas son correctas. El análisis de varianza de medidas repetidas de un factor de efectos fijos. permite realizar contrastes sobre varianzas cuando las observaciones están relacionadas. permite realizar contrastes sobre medias cuando las observaciones entre los tratamientos están relacionadas. es un estadístico de contraste. Las comparaciones múltiples a posteriori en el análisis de varianza unifactorial de medidas repetidas: se hacen cuando el factor tiene más de dos niveles. permiten ver dónde están las diferencias cuando el estadístico de contraste no es significativo. permiten realizar un análisis descriptivo de los datos, pero nunca inferencial. La zona de aceptación de la hipótesis nula mediante el estadístico F para contrastar la igualdad de más de dos medias con observaciones relacionadas: es igual al nivel crítico. incluye todos los valores de la distribución muestral del estadístico de contraste menores que el valor crítico. cuando la distribución es normal, se reparte entre los dos extremos de la distribución. En el análisis de varianza unifactorial de medidas repetidas, el estadístico F. es un cociente entre dos varianzas. es un cociente entre dos medias aritméticas. se obtiene dividiendo la suma cuadrática tratamiento por la suma cuadrática error. En un contraste de hipotesis sobre una media,si es cierta la hipotesis alternativa pero no se detecta en el contraste estadistico,se comete un error. de tipo II. de tipo I. igual al nivel critico. La potencia del contraste es igual a : probabilidad de aceptar la hipotesis nula siendo cierta. probabilidad de rechazar la hipotesis nula siendo falsa. probabilidad de rechazar la hipotesis alternativa siendo verdadera. Las pruebas no parametricas se utiliza en diseños en los que se trabaja con: muestras no representativas de la poblacion objetivo del estudio. muestras pequeñas o variables que no alcanzan el nivel de medida de intervalo o razon. variables medidas con escala de intervalo que provienen de poblaciones con distribucion poblacional desconocida. La suma de cuadrados inter-sujetos representa: la suma de las desviaciones al cuadrado de cada una de las puntuaciones en relacion a la media global. la variabilidad medida de forma separada dentro de cada muestra y luego combinandola para todas las muestras. la variabilidad que puede explicarse ,en cierto grado,por las diferencias entre las medias de cada condicion en relacion a la media global. El valor F obtenido de una tabla del Anova es: el cociente entre dos estimaciones insesgadas de las varianzas poblacionales. el resultado de dividir la suma de cuadrados entre-sujetos y sus grados de libertad. una distribucion de probabilidad. Si dada una muestra de datos para las variables X e Y,determino su correlacion ,estoy obteniendo. la distribucion muestral del estadistico "correlacion". el parametro poblacional "correlacion". el estadistico "correlacion". La forma de una distribucion muestral: siempre es normal. depende unicamente del tamaño muestral del estadistico. dependera del estadistico considerado. Si disponemos de varios estadisticos insesgados para estimar una misma caracteristica poblacional,elegiremos aquel que: tenga la menor media. tenga la menor desviacion tipica. tenga el menor rango de valores. La potencia del contraste depende de: unicamente de que la hipotesis nula sea falsa. el nivel critico. el tamaño del efecto y el tamaño muestral. El tam:año del efecto. depende del tamaño muestral. es independiente del tamaño muestral. si es grande,necesariamente obtenemos resultados significativos. En el caso de que la variable dependiente estuviese medida en una escala ordinal: habriamos tenido que transformarla a escala de intervalo utilizando puntuaciones Z. tendriamos que haber utilizado un contraste no parametrico. habriamos tenido que utilizar un ANOVA para el analisis de estos datos. La potencia en un analisis de varianza: varia directamente con el tamaño del efecto de la variable independiente. varia directamente con la variabilidad muestral. no depende del nivel de confianza del estudio. Cuando en una investigacion se trabaja con muestras pequeñas o variables que no alcanzan el nivel de medida de intervalo o razon,hay que utilizar: pruebas parametricas si se trata de un diseño experimental. pruebas no parametricas en funcion de las condiciones del diseño. pruebas parametricas si la muestra es representativa de la poblacion. La cuasi-varianza de la muestra es un estimador insesgado de la varianza poblacional porque: su distribucion muestral tiene una varianza menor que la de cualquier otro estimador del mismo parametro. utiliza toda la informacion de la muestra relacionada con el parametro. su valor esperado o media coincide con la varianza poblacional. ¿En cual de las siguientes condiciones la distribucion muestral de la media es la distribucion t de Student?. cuando conocemos la varianza poblacional con independencia de como sea la distribucion poblacional. cuando se desconoce tanto la varianza como la forma de la distribucion poblacional y el tamaño de la muestra es mayor de 30. cuando se desconoce tanto la varianza como la forma de la distribucion poblacional y el tamaño de la muestra es menor de 30. El coeficiente de determinacion nos informa de la proporcion de variacion en Y que puede ser atribuida a: el error entre Y y su valor predicho. el porcentaje de la suma de cuadrados de los residuos. la variabilidad en X. Antes de aplicar una regresion lineal simple a un conjunto de datos seria conveniente: calcular el error tipico del error. verificar que la variable predictora se relaciona realmente con la variable predicha. graficar los datos para evaluar visualmente si el patron es lineal o de otro tipo. En cuál de los siguientes diseños empleamos muestras relacionadas: cuando los mismos sujetos son sometidos a dos condiciones experimentales;. cuando disponemos de parejas de hermanos gemelos que son asignados aleatoriamente a grupos distintos;. las dos opciones anteriores son verdaderas. La varianza de la distribución muestral es mayor: en un diseño de dos muestras independientes;. en un diseño de dos muestras relacionadas;. son iguales en ambos casos. En un contraste sobre dos proporciones en muestras relacionadas realizamos el contraste: con los sujetos que obtienen puntuaciones diferentes en dos ocasiones;. con los sujetos que obtienen la misma puntuación en dos ocasiones;. utilizamos todas las puntuaciones de los sujetos en las dos ocasiones. En un contraste sobre dos proporciones en muestras relacionadas sólo podemos plantear una hipótesis estadística tanto unilateral como bilateral: con el estadístico Z;. mediante la prueba de McNemar;. ninguna de las anteriores es correcta. El contrabalanceo de los niveles de un factor es una exigencia en los diseños: test-retest;. inter-sujetos;. intra-sujeto. En un diseño de un factor intra-sujeto, los participantes: pasan por todos los niveles del factor;. solamente pasan por un nivel del factor;. no muestran efectos de aprendizaje. La ventaja de utilizar un diseño intra-sujetos en relación a un diseño inter-sujetos consiste en que: el término error es usualmente inferior;. el sujeto es su propio control;. ambas opciones son correctas. Una tabla(A X S) se compone de: la media de la variable dependiente para cada nivel del factor;. los valores de la variable dependiente en cada nivel del factor y para cada sujeto;. el sumatorio de la variable dependiente para cada sujeto. Si disponemos de 8 sujetos y 4 condiciones experimentales, el denominador de la razón básica [T] es igual a: 8. 32. 4. En los diseños intra-sujetos se considera que la varianza de error viene dada por: el factor manipulado;. los sujetos;. la interacción entre el factor manipulado y los sujetos. En un análisis de varianza llamamos factores: Las variables independientes. Las variables dependientes. Las variables no controladas. en los diseños de mediadas repetidas: La variabilidad que más nos interesa es la intersujetos. Podemos separar la fuente de variabilidad intersujetos del efecto de los tratamientos y del error experimental. La variabilidad intersujetos no se puede estimar y queda formando parte de las fuentes de variabilidad no controladas incluidas en el error. El estadístico de Scheffe permite: Comparar únicamente pares de medias. Realizar únicamente comparaciones complejas. Realizar ambos tipos de comparaciones. Uno de los objetivos del ANOVA de medidas repetidas de un solo factor y de efectos . fijos es conseguir el control de: Las diferencia entre sujetos. Del error típo I. Del error típo II. Una F significativa en un análisis de varianza: Indica que no hay diferencias. Indica dónde están las diferencias. No indica dónde están las diferencias. El supuesto de simetría compuesta se refiere a que: Las covarianzas son distintas. Las varianzas son distintas. Ambas respuestas son incorrectas. Se dice que un diseño bifactorial es equilibrado si: Los grupos tienen el mismo número de sujetos. Los grupos tienen la misma varianza. El número de niveles de los dos factores es el mismo. Para aplicar un análisis de varianza bifactorial, uno de los requisitos es. Que no exista interacción de los factores. Que las observaciones sean independientes dentro de cada grupo. Que las varianzas de cada grupo sean diferentes. Se quiere pronosticar el rendimiento académico mediante la atención y el nivel de motivación del alumnado. Nos hallamos ante un estudio: de regresión múltiple con dos variables independientes y una dependiente;. de correlación múltiple con tres variables;. ambas respuestas son correctas. En la correlación parcial con tres variables se trata de: encontrar la correlación entre dos variables eliminando el influjo de una tercera;. controlar estadísticamente una variable utilizando la regresión lineal;. encontrar la correlación entre una variable y otras dos tomadas conjuntamente. En la correlación múltiple con tres variables se trata de: calcular la correlación entre dos variables eliminando el influjo de una tercera. calcular la correlación entre una variable y otras tres tomadas conjuntamente;. calcular la raíz cuadrada del coeficiente de determinación múltiple con tres variables. R2xy se puede interpretar como. la medida de ajuste (exactitud) de las observaciones a la recta de regresión. la medida de la variabilidad de las observaciones en torno a la recta de regresión;. la medida del grado de desigualdad entre las observaciones. El objetivo principal del modelo de correlación lineal simple es: averiguar la fuerza de la relación entre X e Y;. predecir los valores de Y (variable criterio) a partir de los valores de X (variable predictora. valorar las diferencias entre variables que miden las mismas características. En el modelo de regresión lineal simple, la varianza de la y condicionada a cada valor de x: varía según varía la variable predictora. varía en virtud de los valores que toma la variable criterio;. es constante. En el modelo de regresión lineal simple, donde Y es la variable criterio y X la predictora (con valores fijados por el investigador), el parámetro beta (pendiente de la recta de regresión) indica: el cambio en el valor esperado de Y por unidad de cambio en la variable X;. el cambio en el valor esperado de Y según la variación aleatoria de X;. el cambio en el valor esperado de X por unidad de cambio en la variable Y. Cuando el investigador está interesado en realizar “predicciones”, las técnicas estadísticas apropiadas son: pruebas de diferencia de medias para muestras relacionadas. técnicas de regresión;. técnicas de Análisis de Varianza. Cuando llevamos a cabo un análisis de regresión,el método de estimación por mínimos cuadrados garantiza que: las predicciones son exactas;. la ordenada en el origen de la recta de regresión es nula;. los errores de predicción son mínimos. El análisis de regresión tiene. sólo vertiente descriptiva. sólo vertiente inferencial;. vertiente descriptiva e inferencial. En la siguiente ecuación de una recta X = α + β.Y. alfa indica el valor de Y para X = 0;. alfa representa la pendiente;. ambas respuestas son incorrectas. Cuando el coeficiente de determinación toma el valor cero: el ajuste de la recta de regresión es perfecto;. la recta de regresión es horizontal;. ambas respuestas son incorrectas. El coeficiente de determinación es una medida de: la proporción de varianza no explicada por la ecuación de regresión;. el grado de error cometido en la regresión;. la proporción de varianza explicada por la regresión. r2xy: se suele utilizar como medida de la relación curvilínea entre dos variables, donde se sospecha la falta de linealidad de los datos;. sus valores oscilan entre 0 y 1;. es el coeficiente de correlación. En la siguiente ecuación de una recta Y = α + β.X: β es el punto de corte de la recta con el eje de ordenadas;. β representa el incremento de X por cada unidad que se incrementa Y;. ambas respuestas son incorrectas. Cuando el coeficiente de determinación toma el valor máximo 1: la varianza explicada por la regresión es cero;. todos los puntos estarán sobre la recta de regresión:. ambas respuestas son incorrectas. En el caso de modelo bifactorial con interacción de efectos fijos, uno de los supuestos del ANOVA que no es necesario que se cumpla es: el supuesto de homogeneidad de las varianzas. la independencia de las observaciones;. las dos anteriores son falsas. En el ANOVA bifactorial de efectos fijos con observaciones independientes se cumple siempre que: hay efecto de interacción;. no hay efecto de interacción. puede haber o no haber efecto de interacción. En un análisis de varianza bifactorial con observaciones independientes, cuando el efecto producido por los niveles de uno de los factores depende de los niveles del otro factor. Existe efecto de la interacción entre los factores;;. No existe interacción. No pueden aplicarse comparaciones múltiples. En los modelos ANOVA bifactoriales se desea estudiar la influencia de. dos niveles de una variable sobre una variable dependiente;. dos variables independientes sobre una variable dependiente;. dos factores sobre una variable independiente. En el ANOVA bifactorial de efectos fijos sin interacción (es decir, con interacción no significativa), tendremos: tantas hipótesis nulas como niveles tengan los factores;. tres hipótesis nulas;. dos hipótesis nulas, una para cada factor. |