option
Cuestiones
ayuda
daypo
buscar.php
TEST BORRADO, QUIZÁS LE INTERESE: METODOLOGÍA TEORÍA
COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
METODOLOGÍA TEORÍA

Descripción:
rezos a papadios

Autor:
AVATAR
yo
OTROS TESTS DEL AUTOR

Fecha de Creación:
26/05/2023

Categoría: Test de conducir

Número Preguntas: 226
COMPARTE EL TEST
COMENTARNuevo Comentario
No hay ningún comentario sobre este test.
Temario:
La siguiente gráfica corresponde a los errores de estimación de los intervalos de 8 segundos en la primera serie de respuestas: Hay al menos dos puntuaciones extremas: 13,0 y 13,7 Hay una puntuación extrema que vale 13,7 Es muy frecuente el error igual a 7 Los datos tienen dos puntuaciones extremas en los valores más bajos.
La gráfica representa las distribuciones de las respuestas medias en cada intervalo de tiempo a estimar. En ella, entre otras cosas, encuentra puntuaciones extremas. Una de las siguientes afirmaciones es correcta. Las medianas de las distribuciones se encuentran siempre en el centro de los cuartos 1º y 3º Los bigotes inferiores corresponden en todos los casos a la puntuación teórica inferior La puntuación extrema más influyente se encuentra en la distribución del intervalo de 12 segundos La puntuación influyente de todas es cercana a 70.
En la misma gráfica anterior: Las barras centrales gruesas en las graficas representan a las medias Todas las medianas tienen un valor mayor (sobreestimación) que el valor del intervalo al que corresponden La variabilidad de las distribuciones no tiene ninguna relación con el tamaño de los intervalos de tiempo a estimar A mediana más alta corresponde distribución más variable.
En las dos gráficas de contorno siguientes: En ambas gráficas la pendiente es negativa El núcleo central de la distribución de 8 segundos no parece coincidir con la recta de regresión. Es el efecto de una puntuación extrema. En la gráfica de las medias a 31 segundos hay más casos que en la de las medias a 8 segundos La pendiente de la recta de regresión es la misma porque en estas variables hay una única ecuación de regresión posible.
Se han puesto juntas las gráficas de caja y la “cesta” (bagplot) para las medias de 12 segundos. Lo que ocurre es que las puntuaciones extremas univariadas no lo son desde la perspectiva bivariada Las gráficas de caja no tienen relación con las de cesta Deben estar mal. Hay balas perdidas en las gráficas de caja y no las hay en la de cesta La gráfica de cesta no permite detectar puntuaciones extremas.
Estas son las gráficas de caja de las medias de la segunda serie. En ellas: Las puntuaciones extremas son, en general, menos extremas que en la serie 1 Si nos fijamos solo en la amplitud de los bigotes, todas son muy asimétricas Mirando las medias de estas gráficas podemos afirmar que se producen sobre todo sobreestimaciones No tiene sentido que solo haya “balas perdidas” en el extremo alto de la distribución. Debiera haber alguna también bajo los bigotes inferiores.
La gráfica siguiente corresponde a los errores para el mismo casi de la pregunta anterior, segunda serie. Los errores (subestimación o sobre-estimación) tienen variabilidad distinta que las medias Es normal que las puntuaciones extremas coincidan en ambas gráficas. Corresponden a la misma variabilidad Las dos gráficas de las dos preguntas solo por azar dan resultados parecidos La dispersión de los errores (subestimación o sobreestimación) es homocedástica.
La gráfica que aparece en esta pregunta corresponde a las respuestas directas de los participantes ante las seis presentaciones del intervalo de 8 segundos (tres en primera serie y tres en la segunda) solo que ahora agrupadas por ensayos y no por series. En ellas se observa claramente que: Es extraño que la distribución de datos del primer ensayo segunda serie no tena puntuaciones extremas Cada gráfica corresponde a una escala diferente En general, las respuestas en la segunda serie tienden un poco más a la subestimación que las de la primera En general, las medias son muy similares.
Observe la gráfica siguiente y elija la opción correcta: Se observa un decrecimiento de las medianas, más claro en la segunda serie Es anormal que haya puntuaciones extremas en la cola inferior Todas las distribuciones son equivalentes Las distribuciones tienen en general el mismo nivel, y las medias decrecen, lo que no es muy lógico.
El análisis exploratorio de datos permite, entre otras cosas: Abordar un análisis preparatorio de datos Es siempre posterior al análisis preparatorio de datos Seleccionar participantes para las muestras del experimento Calcular pruebas de significación de diferencias entre medianas.
La siguiente gráfica corresponde a los errores de estimación en el intervalo de 31 segundos en la 2ª serie. En ella: La puntuación -20,7 debe ser más extrema que la de 16,3 Si las puntuaciones 16,3 y -20,7 son consideradas extremas depende del tamaño de la caja No se observan anomalías aparentes Hay muchas personas que cometen error igual a 7.
Las gráficas siguientes se corresponde a las medias y los errores de estimación en el experimento de percepción del tiempo. Las comparamos y observamos: Que contienen la misma información, con agrupaciones de datos diferentes En una predomina más la puntuación 7 que en otra Son distintas informaciones. De hecho el número de intervalos es distinto Que contienen información distinta, ya que las colas y las agrupaciones inferiores son distintas.
La gráfica de caja corresponde a algunos de los datos que se han representado en las gráficas de las anteriores preguntas Debe haber algún error. Esta gráfica no se corresponde con la información de ninguna de las anteriores La media esta muy centrada entre los cuartiles Los criterios de los que es una bala perdida son más rígidos en la gráfica de caja que en la de tallo y hoja Los datos son bastante normales, con una ligera perturbación en el extremo superior de las puntuaciones.
Comparando las dos gráficas de caja observamos: Que no hay ninguna relación entre las dos series Que, en general, las puntuaciones de la segunda serie son más variables que las de la primera Que la diferencia entre las medias es probablemente significativa Que, en general, las puntuaciones de la segunda serie son más bajas que las de la primera.
Las dos gráficas de caja de la pregunta anterior ¿guardan alguna relación con las dos gráficas de tallo y hoja de la pregunta 12? No. Contienen informaciones contradictorias No. no hay ninguna relación entre ellas Sí, una de las gráficas de caja se construye con una de las gráficas de tallo y hoja Sí. Contienen la misma información exactamente.
Las gráficas siguientes contienen relaciones entre las gráficas de caja univariadas y la de “cesta” bivariada. Al verlas conjuntamente observamos que las de caja tienen más balas perdidas que las de cesta. Eso no puede ocurrir, no tiene sentido Puede que las gráficas de caja no sean las que corresponden con las de cesta Eso es normal. Las puntuaciones extremas univariadas y las bivariadas pueden no coincidir Las gráficas de caja tienen asimetría positiva y las de cesta asimetría negativa.
Comparando las cuatro gráficas siguientes observamos rectas de regresión que se ajustan a los datos. Recuerde que en el intervalo de 12 segundos falta una puntuación y, por ello, no se pudo calcular el contorno para la gráfica. Aunque eso para su respuesta no tiene ninguna relevancia. Las gráficas muestran dispersiones parecidas, y las rectas de regresión lo reflejan Las gráficas de contorno varían todas alrededor de las medias de los grupos En algunos casos, la recta de regresión depende demasiado de alguna puntuación extrema Salvo variaciones al azar, las cuatro rectas de regresión es normal que sean prácticamente iguales.
¿Cree Vd. que la recta de regresión en esta gráfica pasa por el núcleo central de los datos sin que influya ninguna puntuación extrema? No influyen ninguna puntuación extrema, sencillamente porque no las hay Es posible que influyan. De hecho, la puntuación del extremo inferior debería hacer que la recta se inclinase más, pero las cuatro del extremo superior desvían la recta disminuyendo su inclinación Los contornos no tienen nada que ver con la recta de regresión No influye ninguna otra puntuación. La recta se ajusta bien al centro de la distribución.
En las cuatro gráficas siguientes: Es poco lógico que solo haya puntuaciones extremas en el extremo superior de los datos La variabilidad de los datos decrece cuando decrecen las medias La puntuación extrema de la gráfica de 8 segundos es probablemente la más influyente de todas las que hay en las cuatro distribuciones Las medias de los cuatro grupos representados decrecen cuando crece el intervalo.
Otra forma de denominar las variables dependientes de un experimento: Variables de respuesta Interacciones Tratamientos Factores.
Las variables organísmicas son aquellas que operacionalizan la variabilidad debida a los atributos de los sujetos, o bien la debida a sus: respuestas comportamentales respuestas fisiológicas condiciones estimulares diferencias intraindividuales.
Al conocimiento de cómo se comportan las variables de un diseño experimental se le denomina: Linealidad Confusión Aditividad Control.
Diseñamos experimentos fundamentalmente para conseguir: comparaciones sesgadas entre medias de tratamientos que las varianzas de los grupos o bloques sean heterogéneas determinar si los efectos de los distintos tratamientos son diferentes que las medias de los tratamientos sean significativas.
El uso de la terminología variable independiente-variable dependiente: es práctica común en las ciencias naturales aunque sea infrecuente en psicología es práctica común en todas las ciencias es práctica común en psicología y en algunas ciencias sociales, pero muy infrecuente en las ciencias naturales Es inadecuado porque no hay verdaderas variables independientes en psicología.
¿A qué tipo de variables llamamos nosotros “variables de tarea”? a las también llamadas independientes a las organísmicas a las también llamadas dependientes a las que no son de sujeto.
A los niveles de las variables independientes en un experimento se les llama también: tratamientos factores variables de asignación variables intermedias.
Uno de los siguientes símbolos corresponde al término que representa a todas las fuentes de variación no controladas que pueden afectar a la puntuación individual. ¿Cuál? αj μj μ Ɛ i(j).
Las diferencias entre las distintas μj en un experimento se reflejan en: Ɛi(j) Ơ ^2α μ Ơ^2Ɛ.
Cada grupo de un diseño al azar siempre y en cualquier caso representa una muestra: heterocedástica de una población de tratamiento aleatoria de la población estratificada.
La expresión “(μ.j- μ…)” corresponde a: la varianza intra la varianza inter el efecto de tratamiento de “j” el efecto del error “j”.
En un experimento de grupos al azar es requisito imprescindible tener de los sujetos experimentales: un número de medidas iguales a “n” un número de medidas iguales a “p” una única medida por cada tratamiento una única medida.
La diferencia entre modelo matemático y modelo estructural de un diseño estriba en que: El modelo estructural se expresa en lenguaje no matemático, mientras que el matemático necesariamente se expresa con símbolos numéricos no hay diferencias, se usa una u otra denominación indistintamente para referirse al mismo concepto el primero contiene parámetros y el segundo estimadores no existe el modelo estructural de diseño.
La razón “F” tiene como valores teóricos mínimo y máximo, respectivamente: -1 y 1 0 y ᴔ 1 y ᴔ no tiene límites teóricos exactos.
La razón “F” del análisis de varianza puede obtenerse conociendo los tamaños de muestras, el número de grupos y…: si los efectos son aditivos la Mce la proporción de la varianza explicada por los tratamientos la correlación entre las variables independientes.
La prueba “F” en un diseño de grupos al azar se considera robusta frente a la violación de algunos supuestos y muy sensible a la violación del de: aditividad de los errores independencia normalidad circularidad.
Cuando, tras realizar la prueba de homogeneidad apropiada, en un experimento encontramos que las varianzas de los grupos son significativamente diferentes: no debemos preocuparnos demasiado si nuestras muestras son suficientemente pequeñas y desiguales no debemos preocuparnos demasiado si nuestras muestras son suficientemente grandes e iguales debemos utilizar en todos los casos la Mce en los contrastes debemos promediar las varianzas para el cálculo de los contrastes.
Utilizamos pruebas robustas de contrastes de diferencias entre medias cuando se viola uno de los supuestos: independencia homocedasticidad normalidad aditividad.
A veces las pruebas de normalidad de las distribuciones no detectan violaciones del supuesto de normalidad causada por balas perdidas. Una de las pruebas menos sensibles en ese caso es la prueba: Brown-Forsythe Kolmogorov-Smimov-Lilliefors Fmax de Pearson y Hartley Shapiro-Wilks.
Cuando las varianzas de los datos de los grupos de un experimento son homogéneas: el promedio de todas ellas estima la varianza de error o media cuadrática del error la prueba de Barlett es estadísticamente significativa Se cumple el supuesto de esfericidad Todas son correctas.
Se debe utilizar una transformación logarítmica cuando los datos son no paramétricos se distribuyen asimétricamente se distribuyen asintóticamente son estimaciones de parámetro.
El M-Estimador de un paso utiliza un índice de variabilidad como referencia. Este índice es: La desviación típica MADN la desviación típica MAD.
Para determinar si una puntuación es extrema (outlier o bala perdida) se utiliza: el M-Estimador biponderado de Tukey el criterio informado del investigador apoyado en algunas técnicas robustas basta con la gráfica de tallo y hojas un criterio estadístico fijo.
Con la gráfica de tallo y hojas se puede obtener: una suma de cuadrados de los tratamientos un valor del percentil dado certeza de la existencia de balas perdidas todas las respuestas anteriores son correctas.
¿Cuál de las siguientes oraciones representa un procedimiento para la estimación del error típico de un estadístico?: obtención a partir de la desviación típica y del tamaño de la muestra todas las opciones son correctas estimador bootstrap obtención a partir de la varianza y el tamaño de la muestra.
Se denomina contraste a: una combinación lineal cuya suma de coeficientes es 0 la significación de una diferencia entre medias un vector ortogonal dos vectores ortogonales entre sí.
PREGUNTA IMPORTANTE: Cualquier suma de cuadrados de tratamientos se puede descomponer exactamente: en un número indeterminado de contrastes en (p-1) contrastes independientes en una matriz de varianza-covarianza en una varianza sistémica y en una de error.
Cada contraste complejo (que involucra a más de dos grupos),¿cuántos grados de libertad tiene?: depende del número de grupos involucrados (p-1) 1 p(p-1)/2.
Usamos los grados de libertad de Welch cuando calculamos t para: varianzas separadas y tamaños de muestras iguales varianzas separadas y tamaños de muestra desiguales varianzas promediadas y tamaños de muestra iguales varianzas promediadas y tamaños de muestra desiguales.
Alguna prueba de homogeneidad de varianzas son sensibles a la violación de otros supuestos como el de normalidad. La más sensible es: Barlett Brown-Forsythe Flinger-Kileen Scheffé.
El procedimiento según el cual la distribución del estadístico se determina simulando un número elevado de muestras aleatorias directamente a partir de los datos observados se denomina: Brown-Forsythe Flinger-Kileen Scheffé Bootstrap.
Los grados de libertad de las pruebas de comparaciones múltiples entre medias, si no hay violación del supuesto de homocedastecidad, son: los calculados a partir de la fórmula de Welch los calculados a partir de la fórmula de Cochran y Cox los correspondientes a la σ^2 error (e) los correspondientes a la σ^2 tratamientos (a).
El número de contrastes ortogonales que se pueden realizar en un experimento depende: del número de grupos y tratamiento del tamaño de la suma de cuadrados de tratamientos de los grados de libertad del error del tamaño de la suma de cuadrados de error.
El número de comparaciones ortogonales entre medias que pueden efectuarse en un experimento con “p” niveles de tratamiento es: p(p-1)/2 indeterminado p p-1.
PREGUNTA IMPORTANTE: En un diseño de cuatro grupos al azar, el vector ( 1 0 – 1 0 ) representa: un contraste entre el grupo 1º y el 3º un contraste entre dos grupos cualesquiera un contraste lineal un contrate entre el grupo 2º y 4º.
t^2 es igual a F cuando: σ es igual a MADN las calculamos en un diseño simple de dos grupos al azar siempre nunca.
toda suma de cuadrados de tratamiento se descompone en (p-1) componentes ortogonales, cada uno de los cuales tiene: 1 grado de libertad (p-1) grados de libertad (n-1) grados de libertad depende de la suma de cuadrados de que se trate.
Si se utilizan pruebas clásicas, es decir, no se utilizan pruebas robustas, en caso de violación del supuesto de homocedastecidad existe el riesgo de que tal vez: disminuyan los grados de libertad aumente mucho disminuya mucho aumente la potencia de análisis.
Una esperanza se define como: un valor diferente de 0 una probabilidad una VI una media.
La expresión (1-(1-αC corresponde a: la probabilidad de cometer al menos un error tipo I en “C” contrastes la probabilidad de no cometer ningún error tipo II en “C” contrastes la probabilidad de no cometer ningún error tipo I en “C” contrastes la probabilidad de cometer al menos un error tipo II en “C” contrastes.
El problema de la tasa de error tiene como corolario que cuantos más contrastes realicemos mayor será: α pc α pE α pp α j.
Respecto al problema de la tasa de error cabe decir, en general, que: para intentar resolverlo se utilizan pruebas potentes para intentar resolverlo se utilizan pruebas conservadoras cuando se aumenta el número de contrastes ortogonales por encima de (p-1) se incrementa exponencialmente la tasa de error no es un problema en la de los diseños experimentales.
Se conoce como tasa de error en un experimento: al número de contrastes independientes que se pueden realizar al número de contrastes que se pueden realizar al nivel de confianza a los contrastes a priori menos los contrastes a posteriori.
El número de comparaciones entre medias que pueden efectuarse en un experimento con “p” niveles de tratamiento es: (p-1) indeterminado p(p-1)/2 p.
Puesto que podemos elegir entre los diferentes contrastes algunos más potentes, otros menos, la elección de ellos dependerá, a igualdad de otras cosas, de: si se violan los supuestos del análisis las necesidades de la investigación el modelo estructural del diseño si el análisis es “a priori” o “a posteriori".
Una de las siguientes pruebas no está específicamente diseñada para comparaciones complejas entre medias: Scheffé a priori Brown-Forsythe Dunnet todas las anteriores sirven para comparaciones complejas.
Una de las siguientes es una prueba compleja: Tukey Welch Fisher Scheffé.
La prueba de Dunn-Sidak está relacionada con: la desigualdad de Bonferroni la modificación de Games-Howell la pérdida de grados de libertad en la solución de Bahrens-Fishers la pérdida de grados de libertad en la solución de Welch.
En general, y salvo excepciones concretas (como Welch, por ejemplo), los grados de libertad de la mayoría de las pruebas de comparaciones múltiples entre medias pertenecen a la: σ2 de error σ2 de tratamientos σ2 de grupos σ2 sistemática.
La prueba de Dunnet se utiliza para: contrastes “a priori” entre pares de varianzas contrastes “a posteriori” entre pares de medias contrastes “a priori” entre un media control y (p-1) experimentales las opciones (b) y (c) son ambas correctas.
Una prueba de comparaciones múltiples entre medias para el caso de violación grave del supuesto de homocedastecidad es la de: Scheffé “a posteriori” Bonferroni Brown-Forsythe todas son correctas.
La prueba de Dunn o Bonferroni se aplica: cuando queremos una prueba más potente que la Tukey cuando queremos realizar un número alto de contrastes y no queremos superar en mucho α pE porque constituye una solución exacta al problema de la tasa de error las opciones (b) y (c) pueden ser correctas.
La suma de todas las sumas de cuadrados de las tendencias calculables en un experimento equivale a: Σy2 error Σy2 total Σy2 residual Σy2 tratamientos.
Cuando se describe la tendencia de las medias de un experimento a través de un polinomio de segundo orden, se está realizando de hecho un análisis: de varianza de regresión no lineal de regresión lineal heterocedástico.
La expresión sum {{y} ^ {2} no lineal” hace referencia a la suma de cuadrados de: los componentes de la varianza de error y tratamiento los componentes de varianza de bloqueo y tratamiento los componentes de varianza de cualquier tipo de curvatura los componentes de varianza de error, bloqueo y tratamiento.
La expresión “MC No Lineal” estima algún componente de la: σ2 de error σ2 intra σ2 de tratamientos depende de los casos.
En un análisis de tendencias, el coeficiente de correlación múltiple al cuadrado nos informa de: la varianza explicada conjuntamente por los componentes por los componentes lineal, cuadrático, cúbico hasta alcanzar la tendencia de grado (a-1) la probabilidad de varianza explicada por las tendencias no lineales la probabilidad de réplica de las tendencias del experimento en el análisis de tendencias no se calcula nunca un coeficiente de correlación.
Suponga que se desea saber la relación que hay entre las diferentes concepciones de educación (liberal, autoritaria, mixta) y el rendimiento en matemáticas de los alumnos de un colegio. Jamás podrá utilizar: Un análisis de tendencias Pruebas paramétricas Un análisis de regresión Se podrá usar cualquiera de las pruebas anteriores.
Para poder calcular la tendencia lineal y la cuadrática con las medias de un experimento necesario: obtener estimadores de la regresión polinómica que la razón F ómnibus haya sido significativa que haya al menos tres grupos y un factor cuantitativo que el diseño sea correlacionado.
Suponga que un psicólogo decide probar únicamente la tendencia cuadrática en un experimento que realice, porque tiene razones teóricas que así lo aconsejan. ¿Qué diría usted de ese único contraste cuadrático? del contraste nada. Del psicólogo diría que no sabe metodología que si corresponde a la hipótesis del usuario, todo está bien, la teoría es la única guía que sentido a los datos que es teórico que se debe probar primero la tendencia lineal y después las demás.
En análisis de regresión se puede realizar junto con el análisis de varianza la prueba de Dunnet si utilizamos una codificación: ortogonal de efectos Dummy todas son falsas.
Los coeficientes de contrastes de tendencias se obtienen: a partir de las esperanzas de las medias cuadráticas directamente, en función de nuestras preferencias a partir de tablas de coeficientes de tendencias.
En un experimento se induce a los sujetos a diferentes estados de humor: alegre, deprimido y neutral. Uno de los análisis estadísticos siguientes no se puede realizar en este caso: pruebas a priori análisis de tendencias análisis de regresión pruebas a posteriori.
El número de comparaciones entre pares de medias que pueden efectuarse en un experimento con “p” niveles de tratamiento es: (p-1) indeterminado p(p-1)/2 p.
Puesto que podemos elegir entre los diferentes contrastes algunos más potentes, otros menos, la elección de ellos dependerá, a igualdad de otras cosas, de: si se violan los supuestos del análisis las necesidades de la investigación el modelo estructural del diseño si el análisis es “a priori” o “a posteriori”.
En un diseño de cuatro grupos al azar, el vector ( 0 1 0 –1 ) representa: un contraste entre el grupo 1º y el 3º un contraste entre dos grupos cualesquiera un contraste lineal un contraste entre el grupo 2º y el 4º.
Cuando no se tienen ningún término de error correcto para probar una interacción de primer orden en un diseño factorial 2x2x2, se recurre a: la esperanza de la Mce una razón cuasi-F la prueba de Behrens-Fisher este caso no se da en ningún modelo factorial 2x2x2.
¿Existe algún diseño experimental que pueda tener más de un término de error para poder probar las razones “F” de diferentes medias cuadráticas? no, nunca sí, en los factoriales, modelo aleatorio, por ejemplo sí, en los jerárquicos, modelo aleatorio, por ejemplo las opciones (b) y (c) pueden ser ambas correctas.
Si encontramos en el modelo matemático de un diseño experimental la expresión (αβ)jk podemos afirmar que se trata de un diseño: factorial de, al menos, dos factores cruzados jerárquico B (A) factorial con dos factores A y B anidados de bloques al azar.
Suponga que en un diseño factorial de dos factores, no tiene Vd. término de error correcto para probar un determinado efecto principal. En ese caso debe utilizar: razones cuasi-F pruebas conservadoras pruebas potentes no puede ocurrir en un diseño de factores.
En un diseño en el que varios niveles de una variable se cruzan con uno solo de otra se dice que: existe interacción entre ambas la primera está anidada en la segunda la segunda está anidada en la primera ambas están anidadas.
En un diseño en el que todos los niveles de una variable se cruzan con todos los de la otra se dice que: la primera está anidada en la segunda la segunda está anidada en la primera ambas están anidadas es un diseño factorial cruzado.
En un diseño de bloques al azar cada celdilla contiene necesariamente: un único sujeto un único valor “p” valores “n” valores.
En los diseños de bloques, la varianza del efecto de interacción πα puede estimarse a través de: la prueba de Pearson la prueba de no aditividad de Tukey la prueba de no aditividad del ANOVA las opciones (a), (b) y (c) son correctas.
Mientras que en el diseño de grupos al azar la Mce se calcula a partir de la varianza “intra-grupos”, en el de bloques, si se calculase así, la Mce contendría una parte debida a: errores bloques tratamientos todas las opciones anteriores son falsas.
Un factor crítico en la identificación de un diseño como “factorial” o “de bloques” es: la forma de la tabla de puntuaciones el nivel de medición de las variables independientes el tipo de variables que lo compongan, según el criterio manipulativo se trata del mismo tipo de diseños.
PREGUNTA IMPORTANTE: La expresión Σy2 No Aditividad hace referencia a la Σy2 de interacción entre: los componentes de varianza de error y tratamiento los componentes de varianza de bloqueo y tratamiento los componentes de varianza de error y bloqueo los componentes de varianza de error, bloqueo y tratamiento.
Suponga que en un diseño factorial mixto de tres factores, no tiene usted término de error correcto para probar determinado efecto principal. En ese caso debe utilizar: razones “cuasi-F” pruebas conservadoras pruebas potentes este caso no se puede dar en un diseño de tres factores.
Un diseño en el que la variable B sea intrasujetos y las variables A y C sean intersujetos se suele denominar: B.AC AC.B A.B.C A.C.B.
Una variable como sexo es: atributiva fija empírica puede ser atributiva y fija.
Si le dicen que en un experimento tiene una fuente de variación “sujetos intra-grupos”, Vd. podrá sospechar que se trata de un diseño: de grupos al azar de bloques factorial de ninguno de los anteriores.
Si le dicen que un experimento tiene una fuente de variación “sujetos”, Vd. podrá sospechar que se trata de un diseño (si pregunta por sujetos debe aparecer “intra”): de grupos al azar de bloques factorial intrasujetos.
La ventaja principal de un diseño de bloques es que: minimiza la varianza de error debida a las diferencias interindividuales maximiza la varianza de los tratamientos maximiza la varianza de las variables relevantes minimiza la varianza de tratamientos debida a las diferencias entre los sujetos.
En un diseño factorial ABC (tres factores 2x2x2): se puede calcular la interacción ABC se pueden obtener el efecto principal simple C (A1) y el C (A2) se pueden calcular las interacciones AB y BC todas las opciones son correctas.
Un diseño Solomon (donde ponga factoriales) puede considerarse como: un diseño de bloques un diseño factorial sobre las post-observaciones un diseño con cuatro grupos intra-sujetos un diseño normal pre-test, post-test.
En el diseño de cruce (“crossover”): se utilizan dos factores cruzados es un diseño sin pre-test se altera el orden de los tratamientos en los distintos grupos es otra forma de ver el diseño Solomon.
Si los efectos A y B en un diseño 2x2 son ambos significativos, la interacción AxB: es necesariamente significativa no se puede interpretar, ya que es el efecto conjunto de ambas no puede ser significativa es ortogonal a A y B, por lo que no depende de que ellos sean o no factores significativos.
¿Cuántos términos de error tiene un diseño inter-intra de dos factores? dos depende del tamaño de la muestra uno (p-1).
En un experimento factorial en el que las variables se cruzan siguiendo el esquema A1B1-A1B2-A2B1-A2B2, el vector 1,0,-1,0 define: la interacción AB el efecto de B2 el efecto de A en B2 el efecto de A en B1.
Cuando se asignan sucesivamente todas las combinaciones de tratamiento de varios factores a cada sujeto, tenemos diseños: factoriales de grupos al azar factoriales intra-sujetos factoriales inter-intra factoriales de bloques.
En un diseño de medidas repetidas ha de considerarse frecuentemente la técnica de control conocida como: aleatorización de la secuencia de tratamientos todas las opciones son correctas aleatorización en bloques de las secuencias de tratamientos contrabalanceo.
En un experimento factorial en el que las variables se cruzan siguiendo el esquema A1B1-A1B2-A2B1-A2B2, si se resta la suma de cuadrados definida por el vector 0,0,1,-1 de la suma de cuadrados definida por el vector 1,-1,0,0: el resultado es necesariamente 0 obtenemos la suma de cuadrados B (A) o B dentro de A el resultado es la suma de cuadrados de B obtenemos la suma de cuadrados de la interacción AB.
Un diseño intra-sujetos difiere de un diseño de bloques en: el modelo matemático del diseño el procedimiento experimental el tamaño relativo al efecto del tratamiento el tamaño relativo a la no aditividad.
PREGUNTA IMPORTANTE: En un diseño factorial inter-intra A.B, el error de la variable A es: un error intra una interacción como en bloques un error inter menor que el de la variable B.
Los inter-intra son un tipo de diseños en los que: Una VI no interactúa con la VD porque está anidada en ella los tratamientos de una variable se asignan a diferentes grupos y los de la otra a los mismos sujetos la VD no se cruza con todos los niveles de la VI la VD no interactúa con la VI porque está anidada en ella.
El supuesto de simetría compuesta de la matriz de covarianzas es importante en los diseños: inter-intra todas son correctas de grupos al azar factoriales al azar.
PREGUNTA IMPORTANTE: Una interacción en un diseño factorial se define como: la suma de los efectos principales simples (por ejemplo, A(B1)+A(B2) el efecto conjunto no aditivo de dos o más variables el efecto conjunto de dos variables la suma de los efectos principales A y B.
En diseño experimental con el modelo matemático Yijk=μ+α +β+π+ϵ es: un factorial parcialmente jerárquico no existe un diseño experimental con ese modelo un factorial inter-intra un factorial de bloques.
El diseño factorial AxBxSujetos (factorial intrasujetos) puede seguir un modelo aditivo o un modelo no aditivo. En el análisis estadístico del diseño, ambos modelos son distintos: no hay diferencias en el análisis estadístico los grados de libertad asociados al efecto de A los grados de libertad de la interacción AxB que el no aditivo tiene más término de error que el aditivo.
Una interacción de 2º orden: se calcula también en los diseños jerárquicos incompletos de tres factores es una interacción de primer orden distinta a distintos niveles de una tercera variable no se puede calcular en los diseños factoriales cruzados de tres o más factores es la suma de dos interacciones de primer orden.
Una desventaja de los diseños intrasujetos es: no existen técnicas que permitan controlar los errores de tiempo no sabemos calcular el efecto de los sujetos en la variable de respuesta a veces los efectos de los tratamientos son duraderos, en cuyo caso son desaconsejables todas las respuestas son correctas.
En los diseños de bloques, los grados de libertad de la suma de cuadrados de bloques es igual a: p (n-1) p-1 n-1 (p-1)(n-1).
En un diseño factorial de grupos al azar, la suma de cuadrados de interacción AxB: no existe el diseño factorial de grupos al azar se descompone en (p-1)(q-1) componentes ortogonales no es significativa si no lo son las sumas de cuadrados de A y la suma de cuadrados de B se descompone en p-1 componentes ortogonales.
En un diseño experimental A inter x B intra, la interacción AxB: se calcula en la parte intra del análisis se calcula como un residuo no se puede calcular se calcula en la parte inter del análisis.
Para probar el supuesto de aditividad en un diseño intrasujetos se compara la matriz de varianza-covarianza promediada: no existe tal tipo de comparación en los diseños intrasujetos no existe tal tipo de prueba en efecto se trata de la prueba de Mauchly en efecto se trata de la prueba de Box.
Si en un diseño factorial 2x4 encontramos que los efectos A(B1), A(B2) y A(B3) son significativamente iguales y A(B4) es significativamente distintos de los anteriores, tenemos: una interacción AxB un diseño jerárquico A(B) un efecto significativo de la variable B un efecto significativo de la variable A.
Una ventaja de los diseños intrasujetos es: el escaso número de sujetos necesarios para probar los efectos de los tratamientos la coherencia metodológica en el estudio de procesos de conducta que operan con el paso del tiempo todas las respuestas son correctas la reducción de la varianza de error.
Un diseño inter-intra: es un diseño factorial mixto incluye solamente factores cruzados se conoce también como diseño jerárquico incluye factores anidados y cruzados.
¿En qué tipo de diseño no se puede utilizar la prueba de un grado de libertad de Tukey?: medidas repetidas factorial de bloques factorial cruzado AxB Split-plot.
En el modelo o ecuación estructural de un diseño intrasujetos de una única VI aparece siempre un término asociado a: la interacción sujeto-tratamiento los efectos principales simples la interacción entre los factores la variabilidad interindividual.
Una de las principales ventajas de utilizar un diseño de bloques es que: disminuye el número de términos de error puede haber interacción bloque-tratamiento se controla la variabilidad entre las unidades experimentales se aumentan las diferencias individuales.
Se entiende como diseño factorial de modelo mixto a un diseño: factorial con una variable inter y otra de bloqueo de bloques intrasujeto análogo al cuadrado latino factorial en el que una variable es fija y otra aleatoria.
Tenemos un diseño de bloques cuando: a cada sujeto se le aplica un único tratamiento y se le mide varias veces se asignan tratamientos a los sujetos experimentales clasificados según una variable atributiva los sujetos se asignan al azar a cada uno de los bloques a cada sujeto se le aplican todos los niveles de la variable experimental.
El término de error de un diseño intrasujetos es: igual a la de un diseño de grupos al azar menor o igual que el de un diseño de grupos al azar menor al de un diseño de grupos al azar mayor al de un diseño de grupos al azar.
¿Cuántas son las interacciones que pueden aparecer en un diseño factorial AxB?: solamente la interacción AxB dependerá del tamaño del cuadrado latino todas las posibles entre tratamientos y ninguna entre bloques ninguna.
La utilización de un diseño de medidas repetidas sobre los mismos sujetos: controla la varianza sistemática primaria mediante aleatorización consigue que la variable de bloqueo se relacione con la VI selecciona bloques heterogéneos de sujetos o unidades experimentales consigue en general una prueba F más potente que en los diseños de grupos.
Las interacciones de segundo orden son aquellas en las que: la relación entre una VI (A) y la VD es diferente a diferentes niveles de la otra VI (B) se suman los efectos del factor A y del factor B se puede generalizar como actúa una VI (A) si necesidad de determinar el nivel de la otra VI (B) existe una interacción entre tres VI.
Cada bloque de un diseño de bloques al azar representa: una muestra heterocedástica una muestra estratificada de una población de tratamientos un conjunto homogéneo de sujetos una población de tratamientos.
Si no hay efectos principales en un diseño AB es inútil buscar una interacción porque: la interacción es la suma de los efectos principales este tipo de interacciones no existen en este diseño factorial esta afirmación es falsa, la interacción y los efectos son independientes en este diseño ocurre lo mismo que con la razón F y los contrastes. Si no es significativa la F es inútil buscar después comparaciones entre medias.
El problema fundamental de los diseños intrasujetos (o de bloques) es: su escasa potencia su potencial falta de aditividad entre sujetos y tratamientos su escaso error su gran cantidad de error.
Si utilizamos un diseño experimental de grupos al azar para evaluar una variable determinada, y otro diseño de bloques con esa misma variable, cabe esperar: que la aditividad en el diseño de bloques no sea significativa que el diseño de grupo tenga menos error que el de bloques que la varianza de tratamientos sea menor en el de bloques que en el de grupos que el diseño de bloques tenga menos error que el de grupos.
En un diseño de medidas repetidas, un sujeto concreto: recibe un único tratamiento y se le mide “p” veces ha de ser contrabalanceado recibe sucesivamente un número de tratamientos igual a “p” ha de ser balanceado.
Cuando consideramos sólo un nivel de una variable, y probamos en ese nivel los efectos de otra variable, los efectos se llaman: jerárquicos principales principales simples interactivos.
Un diseño intrasujetos o uno de bloques se utilizan, entre otras razones, porque: disminuyen la probabilidad de cometer error tipo I son más conservadores que los de grupos controlan mejor la varianza sistemática primaria su varianza de error es menor o igual que la del diseño simple.
En uno de los siguientes diseños hay más de un término de error. ¿En cuál?: AB.C ABC de regresión jerárquico.
¿En algún caso concreto el modelo matemático de un diseño de bloques contiene un término de interacción “bloque por tratamiento”?: no, nunca no, en principio, aunque depende de la teoría que pretenda probar el investigador sí, en el modelo aditivo sí, en el modelo no lineal.
El modelo matemático de un diseño intrasujetos difiere del de un diseño de bloques en: el tamaño relativo del efecto del tratamiento no difiere en nada el tamaño relativo de la no aditividad en todo.
La técnica de bloqueo: controla la varianza sistemática secundaria mediante aleatorización consiste en formar bloques homogéneos antes de aplicar los diferentes tratamientos selecciona bloques heterogéneos de sujetos o unidades experimentales consigue que la variable de bloqueo se relacione con la VI.
La varianza de error de un diseño de bloques es mayor que la de un diseño de grupos al azar: cuando la fuente de variación de error es significativa cuando la fuente de variación de interacción es significativa cuando la fuente de variación de tratamientos es significativa nunca, eso no es posible.
La varianza de error de un diseño de bloques es menor que la de un diseño de grupos al azar cuando: la fuente de variación de bloques es significativa la fuente de variación de error es significativa la fuente de variación de tratamientos es significativa la fuente de variación de interacción es significativa.
Un diseño jerárquico A(B): incluye solamente factores cruzados se conoce también como diseño Split-pot contiene un factor anidado incluye factores anidados y cruzados.
Se diseña un experimento factorial porque se quiere conocer fundamentalmente: el error intra la aditividad bloque-tratamiento el posible efecto de interacción el efecto principal de cada VI.
¿Existe algún diseño factorial AxB en que la suma de cuadrados de tratamientos no se descomponga exactamente en la suma de las sumas de cuadrados de A, de B y de la interacción AB? no, no existe tal tipo de diseño sí, en los factoriales aleatorios sí, en los diseños “Split-pot” sí, en los no ortogonales.
El valor a en la teoría de Neyman-Pearson es: la probabilidad obtenida asociada a una PSHO la probabilidad de cometer un error tipo I cuando se rechaza una Ho el efecto la probabilidad previa, a priori, de un error tipo I.
La regla de Cohen que sugiere un tamaño de efecto pequeño cuando sea 0,2 o menor, medio cuando esté alrededor de 0,5, y grande cuando sea 0,8 mayor, se aplica: a la distancia estandarizada entre medias a todos los índices de tamaño de efecto a todos los índices de distancia entre medias a los índices basados en correlaciones.
PREGUNTA IMPORTANTE: Algunos índices de tamaño de efecto se interpretan como proporciones (proporción tiene que ser al cuadrado) de varianza explicada, y otros no. De entre los siguientes, sólo uno se interpreta así. ¿Cuál? r de Rosenthal “omega” cuadrado f d de Cohen.
Geoffrey Loftus tituló uno de sus artículos así: Una gráfica vale más que mil p. Con ello se refería a que: al rechazar una hipótesis nula no sabemos nada que no supiésemos antes: toda Ho es falsa si el resultado del contraste no es exactamente igual a 0, basta con aumentar el tamaño de la muestra puede no ser necesaria una prueba de significación estadística si se proporcionan gráficas de medias con intervalos de confianza se abusa de las pruebas de significación, cuando éstas no nos dicen nada de cómo varían los datos Todas las opciones son correctas.
En las reglas a ojo de Cumming y Finch: importa si se solapan o no las gráficas de caja de los datos se usa preferentemente el solapamiento entre intervalos de confianza de las medias para cualquier tipo de diseño sólo importa si se solapan o no las barras de error importa mucho la información acerca de lo que se mide, de qué significan las medias y los intervalos desde un punto de vista teórico o sustantivo.
¿Puede ocurrir alguna vez que un factor tenga un efecto muy pequeño y que se rechace la hipótesis nula? no, porque solo se rechaza la hipótesis nula cuando hay efectos significativos sí, porque cuando el tamaño de la muestra es muy grande, la potencia es muy grande sí, porque cuando el tamaño de la muestra es muy grande, la probabilidad de un error tipo I es muy grande no, porque la potencia de un factor no depende del tamaño de la muestra, sino del número de niveles que tenga.
Un investigador realiza un experimento y, siguiendo la teoría de Neyman-Pearson decide rechazar su H0 al obtener un valor menor que 0,01. Concluye entonces que, en un experimento posterior, con la misma población y el mismo plan de muestreo, obtendrá resultados parecidos, y probablemente volverá a obtener un valor p que le permitirá rechazar de nuevo H0 al mismo nivel de confianza. Esta conclusión merece el siguiente comentario: la probabilidad de una réplica no depende solo del muestreo, sino también del valor del parámetro, del diseño y del tamaño del efecto es una conclusión correcta, porque la replicabilidad de los experimentos depende de la población y el plan de muestreo que se realice no es correcto afirmar que probablemente volverá a obtener un valor p parecido. Es más correcto si se afirma que se obtendrá el mismo es una conclusión correcta, porque en la teoría de Neyman-Pearson la inferencia se basa en el muestreo repetido.
Mientras que la hipótesis estadística es un enunciado acerca de parámetros de la población, la hipótesis experimental es: exactamente lo contrario que una estadística exactamente lo mismo que una estadística el efecto de una VI sobre una VD la proposición de una relación entre variables.
Para mantener bajo control la probabilidad de rechazo correcto de una hipótesis nula falsa en un contraste de diferencias entre dos medias, debemos proponer antes del experimento el valor de: β d α la distribución muestral.
Uno de los siguientes índices del tamaño del efecto se utiliza como distancia estandarizada para el caso de una prueba global del análisis de varianza. ¿Cuál? Eta cuadrado g de Hedges f delta.
El valor beta en la teoría de Neyman-Pearson es: el efecto de la variable B la probabilidad obtenida asociada a PSH1 la probabilidad de cometer un error tipo II cuando se acepta H0 La probabilidad previa, o a priori, de cometer un error tipo II.
En el cálculo de la potencia de un experimento hay varios parámetros relacionados: las probabilidades alfa y beta, el tamaño del efecto y…: la varianza de error la potencia el tamaño de la muestra todas las respuestas son correctas.
Si se rechaza H0 p es la probabilidad de que esa decisión sea incorrecta: no, p es la probabilidad de que esa decisión sea correcta no, p es la probabilidad asociada a un estadístico cuando H0 es cierta en efecto, p nos proporciona la probabilidad de que H0 sea correcta o incorrecta en efecto, p es la probabilidad de cometer un error tipo I.
Cuando Cohen dice que un tamaño de efecto es pequeño, medio o grave admite que: hay tamaños de efecto con los que es más fácil cometer un error tipo I que con otros no tienen ningún uso práctico hay tamaños de efecto con los que es más fácil cometer un error tipo II que con otros es una propuesta subjetiva, aunque han llegado a ser de uso general.
Si tenemos una muestra muy grande y rechazamos una H0 cuando el tamaño del efecto es pequeño: cometemos un error tipo II el experimento tiene poca potencia eso no puede ocurrir. Si el tamaño del efecto es pequeño, no se rechaza H0 confundimos la significación estadística con la importancia práctica.
Imagine que dos investigadores realizan el mismo experimento por separado y uno rechaza H0 y el otro no rechaza H0. Suponga que el control ha sido adecuado en los dos experimentos: en ambos experimentos pueden haberse obtenido tamaños de efectos iguales eso no puede ocurrir nunca depende de α. Si en ambos se usó la misma, la probabilidad de una réplica es 1-α. El enunciado de la pregunta se refiere, entonces, a algo muy improbable algo está mal. Si se ha hecho todo adecuadamente, entonces debieran haberse aceptado o rechazado las H0 en los dos experimentos.
en una prueba de significación de una hipótesis nula un valor p pequeño indica un efecto grande: sí es verdad. El tamaño del efecto solo depende de p no es cierto. Depende también del tamaño de la muestra no es cierto. A mayor valor p, mayor efecto sí es cierto. A menor valor p, mayor efecto del tratamiento.
Para el análisis de la potencia a posteriori: se usa la prueba de Newman-Keuls solo hay análisis de potencia a priori el efecto observado en un estudio se toma como efecto en la población, y se estima la probabilidad de rechazo de la H0 se determinan las probabilidades de los errores tipo I y tipo II, y el tamaño del efecto, y se calcula el tamaño de la muestra necesario.
La diferencia entre la d de Cohen y la g de Hedges estriba en: no hay diferencias entre ambas. Son dos nombres distintos para la misma prueba que la primera utiliza la desviación típica de la muestra y la segunda la estimación de la desviación típica en la población que una es una prueba a priori y la otra a posteriori que la primera pertenece a la familia d y la segunda a la familia r.
Entre los factores que afectan a la potencia se encuentra: si se trata de un diseño correlacionado o no todas las respuestas son correctas si se realizan pruebas paramétricas o no paramétricas si la hipótesis alternativa es direccional o no.
Las pruebas estadísticas, teniendo en cuenta el error muestral, miden: la discrepancia entre un estadístico y un parámetro especifico de la H0 la probabilidad de cometer un error tipo I cuando se rechaza una H0 la probabilidad de que H0 sea falsa si el parámetro es igual a, o distinto de, cero.
En los diseños experimentales simples de grupos al azar la diferencia entre modelo fijo y modelo aleatorio: obliga a utilizar distinto término de error en un caso que en otro se refiere a la representatividad de los sujetos se refiere a la representatividad de los tratamientos se refiere al comportamiento de los errores.
en un diseño de grupos al azar con un único factor, modelo de efectos fijos, la variabilidad de las puntuaciones de cada grupo: es la variabilidad de los errores depende de la variabilidad de los tratamientos no depende de la variabilidad de los errores depende de si hay interacción.
¿Recuerda qué era G-Power? una prueba de homogeneidad de varianzas una prueba de significación de la potencia estadística el programa de ordenador de intervalos de confianza de Cumming para la inferencia a ojo un programa de ordenador que calcula la potencia de los estudios experimentales.
El muestreo que se lleva a cabo sobre los valores de la VI en un experimento de modelo fijo será: accidental intencional en 2 etapas aleatorio.
Por otra parte, en el modelo aleatorio, el mismo muestreo habrá de ser: accidental intencional en 2 etapas aleatorio.
Cuando realizamos un experimento en el que solo queremos generalizar los resultados a un conjunto concreto de valores de VD, utilizamos: un modelo fijo un modelo aleatorio las técnicas de muestreo adecuadas sobre la población seleccionada ese caso nunca se da en la Psicología Experimental.
Se caracteriza como diseño de modelo fijo: aquel en el que solo se quiere generalizar a un conjunto concreto de sujetos al diseño en que no se desea generalizar a la muestra a la población de sujetos aquel que contiene únicamente VI o de bloqueo fijas al diseño cuya VD es fija.
Se caracteriza como diseño de modelo aleatorio: al diseño cuya VD es aleatoria al que contiene únicamente VI o de bloqueo al azar al diseño en que se desea generalizar de la muestra a la población de sujetos aquel en que solo se quiere generalizar a un conjunto concreto de sujetos.
Una diferencia fundamental entre el modelo fijo y el aleatorio en un diseño simple es: la representatividad de los valores de la VI contenidos en el experimento respecto de todos los posibles valores de esa variable el nivel de medición de la VI del experimento el número de valores de la VI la esperanza de la Media Cuadrática del error.
La varianza de los tratamientos dentro de cada grupo es diferente de cero: en el modelo fijo en el modelo aleatorio cuando no hay efectos de los tratamientos nunca.
Cuando hablamos de un diseño de modelo fijo hablamos de: representatividad de la población niveles de tratamiento estrategia del diseño muestreo de sujetos.
El modelo fijo y el aleatorio en un diseño de un único factor difieren en: la representatividad de los valores de la VI contenidos en el experimento respecto de todos los posibles valores de esa variable la esperanza de la Media Cuadrática de error (E(Mce)) el nivel de medición de la VI del experimento en comparación con el de la VD el número de valores de la VI.
La probabilidad marginal es: una probabilidad que podemos ignorar por ser muy pequeña la probabilidad de un suceso sin considerar ningún otro la probabilidad condicional la probabilidad posterior.
Se llama “probabilidad condicional” a la probabilidad de un evento…: independientemente de la probabilidad de cualquier otro sin considerar la probabilidad de otro condicionada a la independencia de los demás eventos dado que otro ya ha ocurrido.
La probabilidad de los datos condicional a que sea cierta la hipótesis alternativa, según la teoría de Neyman-Pearson es la de: rechazar una hipótesis nula verdadera aceptar una hipótesis nula verdadera rechazar una hipótesis nula falsa aceptar una hipótesis nula falsa.
En la teoría de Neyman-Pearson rechazar una hipótesis nula: equivale a considerarla falsa no equivale a aceptar la alternativa equivale a aceptar la hipótesis de investigación no equivale a considerarla falsa.
El concepto de nivel de confianza tiene tres significados. De los cuatro siguientes uno no es un significado correcto: el nivel de estándar convencional el nivel de confianza exacto, determinado por el experimentador la frecuencia relativa a largo plazo de los errores tipo I la confianza subjetiva que se pone en la probabilidad asociada a una hipótesis nula.
Entre las diferencias más notables entre las teorías de la inferencia de Fisher y Neyman-Pearson se encuentra: la existencia de un punto de corte precio para rechazar la hipótesis nula, propuesto por Fisher la propuesta de una teoría epistémica de la inferencia propuesta por Neyman y Pearson el concepto de población, asociado a la distribución muestral: muestras repetidas de distribuciones (N-P) frente a distribución teórica hipotética todas son correctas.
La diferencia fundamental entre los diseños experimentales y los pre experimentales escriba en que los experimentales: Es irrelevante cuando se asignan los tratamientos Cada sujeto recibe solo un tratamiento, seleccionado al azar La asignación de los participantes queda bajo control del experimentador Los sujetos se consideran auto-seleccionados.
En el diseño de réplicas conmutadas: Se utiliza el mismo tratamiento en cada grupo en momentos diferentes Se altera el orden en el que se dan dos tratamientos en los dos grupos Se utilizan dos factores, uno en cada grupo, en momentos diferentes Se utilizan dos tratamientos, uno en cada grupo en momentos diferentes.
En uno de los diseños siguientes se asignan dos tratamientos, indique cual: De cruce Pre-test post-test Solomon De réplicas comunitarias.
¿Se utilizan en algunas ocasiones varios pre-test antes de asignar tratamientos? Si. En los denominados, pre-test repetidos No. Esto hace que los diseños sean difíciles de analizar Si. En los denominados pre-test simulado No. Impide estudiar el efecto de la maduración.
En el experimento de Foa et. Al. Entrevistado en prácticas había cuatro grupos que recibían los tratamientos siguientes: Inoculación al estrés, exposición prolongada, consejo con apoyo y lista de espera. El grupo de “consejo con apoyo”, puede considerarse un grupo control especial, ¿de que tipo? placebo Grupo atendido Expectativas Remisión espontánea.
El análisis de ANCOVA , se usa entre otros en los diseños: Jerárquicos De series temporales Todas las respuestas son correctas Con pre-test.
Una medición de la variable de respuesta ( o dependiente) previa a la administración de tratamiento, constituye: Un residuo de regresión Una variable de bloqueo Un factor o variable independiente Un pre-test.
Algunos índices del tamaño de efecto se interpretan como distancia estandarizada y otros no. De los siguientes, uno no se interpreta así, ¿Cuál? g de Hedges f Eta cuadrado D de cohen.
Algunos índices de tamaño del efecto se interpretan como proporciones de varianza explicada y otros no. De entre los siguientes, uno no se interpreta así, ¿Cuál? r Rosenthal Omega cuadrado D cohen F.
¿Puede ocurrir alguna vez que un factor tenga un efecto muy pequeño y se rechace la hipótesis nula? No, porque solo se rechaza la hipótesis nula cuando hay efectos significativos Si, cuando el tamaño de la muestra es muy grande, la potencia es muy grande No, porque la potencia de un factor no depende del tamaño de la muestra, sino del número de niveles que tenga Si, cuando el tamaño de la muestra es muy grande, la probabilidad de un error tipo I es muy grande.
El valor final de una prueba T se compara con el valor de tablas que, cuando la HO es falsa, ese valor de tablas es: t separada t promediada t no central t.
La regla de Cohen que sugiere que un tamaño del efecto pequeño cuando sea 0,2 o menor, medio cuando esté alrededor de 0,5 y grande cuando sea de 0,9 o mayor, se aplica con cautela: A todos los índices del tamaño del efecto A la distancia estandarizada entre medias A los índices basados en correlaciones A todos los índices de distancias entre medias.
Cohen analizó un conjunto de estudios de psicología social y patológica a lo largo de los años y encontró que: Como promedio, la probabilidad de H1 era proximadamente igual a 0,5 Como promedio, la probabilidad de detectar un efecto significativo condicional a que H1 fuese verdadero era aproximadamente igual a 0,5 Como promedio, la probabilidad de una HO era aproximadamente igual a 0,5 Como promedio la p (D/HO) era aproximadamente igual a 0,5.
Por definición un error de tipo II sólo se puede cometer cuando: Usamos estadística Bayesiana La hipótesis nula es verdadera La hipótesis nula es falsa La probabilidad de los datos condicional a la hipótesis nula es muy baja.
P (D/HO) es muy distinta de p ( Ho/D) sobre todo cuando: Eso es falso. Son exactamente iguales Eso es falso. Siempre son prácticamente iguale, lo que permite rechazar Ho si p es baja Las probabilidades previas de HO y H1 son muy distintas Las probabilidades posteriores de Ho y H1 son muy distintas.
p (D/HO) = probabilidad de los datos suponiendo la hipótesis nula… Entonces, usando la estadística Bayesiana básica para conocer p( HO/D) debemos conocer también: p (D/HA) = probabilidad de los datos suponiendo la hipótesis alternativa p (HA)= probabilidad de la hipótesis alternativa antes de obtener datos p (HO) = probabilidad de la hipótesis nula antes de obtener los datos Todas las opciones son correctas.
SI p < 0,05 (1-p) es la probabilidad de H1 sea correcta, dados los datos: es decir la probabilidad de que H1 sea correcta es mayor que el 95 % Evidentemente, si una es del 5 % la otra será del 95% Eso depende de si se comete un error tipo I. Si no se comete entonces es cierto Falso en toda falsedad, p no es p HO/D). Por lo que (1-P) no es p(HI/D) Este depende de si se comete el error tipo II. Si no se comete, entonces es cierto.
Si usted calcula los efectos de los tratamientos, los suma y los multiplica por el tamaño de la muestra, obtiene la: SCY SCE SC total SCA.
En la gráfica de caja y bigotes, se considera “bala pérdida” o “outlier” a la puntuación: Que supera una vez y media el valor de la mediana Que supera una vez y media el valor promedio de los cuartos Que supera algún límite empírico (bigote) superior o inferior Qué supera algún límite teórico, superior o inferior.
Los grados de libertad de las pruebas de comparaciones múltiples entre medias cuando se sostiene el supuesto de homogeneidad de varianzas en un diseño de grupos, son: Los correspondientes a la MCERROR Los calculados a partir de la fórmula de Welch Los correspondientes a la MC tratamientos (a) Los calculados a partir de la fórmula de Brown- Forsythe.
¿Recuerda cuántas interacciones entre las variables se podían calcular en los diseños jerárquicos? Depende del modelo (fijo, aleatorio o mixto) del diseño Todas excepto los potencialmente existentes entre las variables anidadas y aquellas que se aniden. Depende del tamaño de la tabla Todas las posibles entre tratamientos, ninguna entre bloques.
PREGUNTA IMPORTANTE: Hemos olvidado como se calculan las pruebas de contraste de diferencia de medias y en los libros de estadística un genio ha borrado las fórmulas. Pero sabemos calcular intervalos de confianza. Mediante ellos sabemos si dos medias son iguales o distintas, determinando: Si la diferencia absoluta entre los parámetros es mayor que alfa El grado de solapamiento entre los bigotes de las gráficas de caja a un determinado nivel de confianza Si el valor de la HO (usualmente igual a cero) se encuentra dentro o fuera del intervalo de confianza de la diferencia de medias Si la diferencia entre las variables de los parámetros es mayor que alfa.
La diferencia entre los diseños inter- intra escriba en que los segundos: Hay una variable de tratamiento y otra de bloqueo El error de la parte intra es un error intra La variable intra es la entrada de filas El error de la parte inter es una interacción.
Si usted calcula la suma de cuadrados de error de cada grupo en un diseño de grupos al azar, y las suma, obtiene la: SCA SCE SC total SCY.
En un análisis de tendencia de un diseño experimental de cuatro grupos al azar, la suma de cuadrados cuadrática: No se suele calcular porque la línea es significativamente casi siempre Estima la variabilidad no lineal Tiene un grado de libertad Tiene dos grados de libertad.
En el análisis de tendencias cuando realizamos únicamente los contrastes lineales y cuadráticos ¿Cuántos grados de libertad se usan para ellos? (p-2) (n-2) dos p (n-2).
En un intervalo de confianza de la diferencia entre dos medias: Se utiliza el solapamiento de los intervalos de ambas medias Utilizamos para determinarlo el error típico de la diferencia entre medias Se calcula la correlación entre ambas medias Siempre se encuentra el parámetro.
Un tipo de variable muy importantes porque definen un tipo de diseños clásico son: Los errores Las de asignación o atributivas Las dependientes Los factores.
Una de las cuatro técnicas estadísticas siguientes es muy buena para la acumulación de evidencias de distintos experimentos ¿Cuál? La estadística exploratoria El análisis de regresión lineal múltiple Intervalos de confianza Las pruebas robustas.
En un diseño jerárquico ABC(B) No se puede calcular la interacción AB No se puede calcular la interacción ABC No se puede calcular la interacción AC Se pueden calcular las interacciones AB y BC.
El supuesto de aditividad se viola en los diseños experimentales: Cuando los tratamientos son una variable aleatoria Cuando existe interacción entre alfa y error Siempre que las varianzas sean heterogéneas Cuando los errores son una variable fija.
En el experimento de Ellsworth et al. Se encuentra que el valor F para la variable “mirada” es igual a 43.595 con 1 y 80 g.l y una probabilidad asociada menor que 0,00001. Por eso puede afirmarse que: Todas las opciones son correctas El efecto de la variable “mirada” es grande La hipótesis experimental (la mirada es un estímulo para el escape) queda confirmada Es un estadístico F muy grande dada HO.
En el experimento de Ellsworth et al. Aparece una gráfica que muestra la posible interacción de segundo orden (medias de mirada x experimentador x sujeto). Tras la simple inspección visual, puede afirmarse que: Existe interacción de segundo orden En la condición “mirada” cuando el experimentador es una mujer, los tiempos de las condiciones son claramente distintos Sin pruebas de significación no puede concluirse absolutamente nada. La prueba de la HO es imprescindible Esa no es una gráfica de interacción de segundo orden, sino de dos gráficas de interacción de primer orden.
La validez interna mejora: Si no se realiza un ANCOVA Si la validez discriminante es alta En los diseños experimentales de laboratorio Cuanto más se replique la investigación.
La validez externa: Si la validez discriminante es alta Cuánto más se replique la investigación En diseños experimentales de laboratorio Si no se realiza un ANOVA.
Denunciar Test