option
Cuestiones
ayuda
daypo
buscar.php

Tests Informática Gráfica

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Tests Informática Gráfica

Descripción:
Recopilación de todos los tests que hemos hecho a lo largo del curso 2021/2022

Fecha de Creación: 2022/01/18

Categoría: Informática

Número Preguntas: 78

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

ORdena de más viejo a menos los siguientes eventos según su fecha de nacimiento o creación. Eurographics. Algortimo Z-buffer. OpenGL. Siggraph.

¿Cuál es la parte de la asignatura que el profesor considera que es la más fundamental de todas?. Parte 1: modelado, transformaciones, transformación de la cámara y proyecciones. Parte 3: realismo visual, procesado de imagen, interacción y animación. Introducción. Parte 2: iluminación, sombreado, texturas y texturas procedurales.

¿Quién ejecuta un Shader?. La CPU. La CPU o la GPU, el programador lo decide. La GPU. El Navegador.

¿En qué lenguaje de programación se escribe el código de un Shader de WebGL?. C. HTML5. GLSL. JavaScript.

El pipeline de WebGL 2.0 incluye dos etapas que son programables. Verdadero. Falso.

¿Qué salida produce la etapa de procesado del vértice?. Triángulos. Fragmentos. Vértices. Colores.

En el pipeline de WebGL 2.0, la etapa de Procesado de la Primitiva va antes que la de Procesado del Fragmento y depués de la de Conversión al Raster. Verdadero. Falso.

¿Qué salida produce la etapa de conversión al raster?. Vértices. Colores. Triángulos. Fragmentos.

¿En qué etapa del pipeline de WebGL 2.0 se ha de especificar el grado de transparencia de una primitiva?. Procesado de la Primitiva. Procesado del Píxel. Procesado del Fragmento. Conversión al Raster.

Observa la siguiente matriz e indica que transformaciones realiza: 2 0 0 0 0 2 0 0 0 0 2 2 0 0 0 1. Traslada en Z una unidad y después la escala al doble. Escala al doble y después la traslada en Z una unidad. Traslada en Z dos unidades y después la escala al doble. Escala al doble y después la traslada en Z cuatros unidades.

Señala la afirmación correcta sobre una variable Uniform declarada en el Vertex Shader. Es constante para el conjunto de vértices enviados a la GPU con una llamada a la orden gl.drawElements. Es un tipo exclusivo del procesador de vértices, es decir, no se pueden declarar variables Uniform en el procesador de fragmentos. Es constante para todos los vértices de la escena. Es una variable cuyo valor lo asigna el propio Vertex Shader.

¿Cómo declaras la matriz de transformación del modelo M en un Shader?. uniform mat4 M;. out mat4 M;. in mat4 M;. mat4 M;.

Si quieres escalar de manera no uniforme una esfera de radio unidad y centrada en el origen de coordenadas de manera que quede con forma apepinada y que el modelo siga centrado en el origen de coordenadas pero con su eje mayor coincidiendo con el eje Y, ¿qué secuencias de transformaciones lo consiguen?. S(1,4,1) * Rx(90). S(1,4,1). S(1,2,1) * Rz(-90) * S(2,1,1). Rz(90) * S(4,1,1).

Señala las afirmaciones correctas sobre la operación de giro alrededor de un eje arbitrario. Hay que calcular una base formada por el vector del eje de giro y dos vectores más, donde uno de estos dos últimos ha de coincidir con el eje de coordenadas alrededor del que realmente se hará el giro. El cambio de base se representa mediante una matriz 3x3. Es necesario realizar un cambio de base para hace coincidir el eje de giro con uno de los ejes de coordenadas. Si el eje de giro no pasa por el origen de coordenadas hay que añadir transformaciones de traslación para que así sea.

¿Qué transformaciones debería sufrir el cubo según el siguiente fragmento de código? (asume que en el vertex shader se incluyen las operaciones necesarias) var T = mat4.create(); var S = mat4.create(); var M = mat4.create(); var iM = gl.getUniformLocation(program, "M"); mat4.fromTranslation(T,[1,1,1]); mat4.fromScaling(S,[2,2,2]); mat4.multiply(M, T, S); gl.uniformMatrix4fv(iM, false, M); draw(exampleCube);. Se traslada una unidad en cada eje y se escala al doble de tamaño. Se hace el doble de grande y se traslada una unidad en cada eje. Ninguna porque se le asigna la matriz identidad como última operación. Se escala al triple de tamaño.

¿Dónde operaremos cada vértice con la matriz de transformación del modelo?. En el lado de la aplicación, en javascript, antes de ordenar el dibujado del modelo. En el procesador de vértices. En el procesador de fragmentos. En la GPU pero por suerte lo realiza la funcionalidad fija y es algo de lo que no nos hemos de preocupar.

¿Cuál es el proceder habitual al dibujar una primitiva como una esfera por ejemplo?. Obtener su matriz de transformación, enviarla al Shader y después ordenar el dibujado de la primitiva. Ordenar el dibujado de la primitiva, y obtener su matriz de transformación en el Shader donde se multiplicará por cada vértice. Da igual el orden de las operaciones, siempre se dibujará la primitiva tal y como esperamos. Obtener su matriz de transformación, operarla con los vértices del modelo, y ordenar el dibujado de los vértices resultantes de esta operación.

Según la especificación de WebGL, el test de profundidad se realiza ... En la etapa de Rasterización. Después de ejecutar el shader de fragmentos. Después de ejecutar el shader de vértices pero antes de ejecutar el shader de fragmentos. En la etapa conocida como División perspectiva.

Trabajando con una proyección perspectiva, ¿qué le ocurre al tamaño de la proyección si disminuyes el valor del fovy?. Disminuye. Aumenta. Permanece constante.

¿Qué se conoce con el nombre de transformación modelo-vista?. Concatenación de la transformación de la cámara y la del modelo. Concatenación de la transformación de proyección y la del modelo. Concatenación de la transformación de proyección, cámara y la del modelo. Concatenación de la transformación de proyección y la de la cámara.

Trabajando con WebGL ordeno el dibujado de una esfera y veo un óvalo, ¿por qué?. La matriz de la transformación de la cámara es errónea. El problema está en la matriz de transformación al viewport, que está mal calculada. La relación de aspecto del viewport y la del volumen de la vista son diferentes. Falta una operación de escalado no uniforme en la matriz de transformación del modelo.

Señala las afirmaciones correctas respecto al proceso de visualización con WebGL. Las transformaciones de proyección convierten el volumen de la vista especificado por la aplicación en el volumen canónico de la vista. Es responsabilidad del programador multiplicar cada vértice del modelo por las matrices de transformación de la cámara y de proyección. La operación de recortado se realiza sólo si el programador la habilita (gl.enable). La transformación al área de dibujo la realiza la GPU.

¿Cuál es el tamaño del volumen canónico de la vista en WebGL?. Es una caja cuya dimensión depende del volumen de la vista especificado por el programador. Es una caja cuya dimensión depende del volumen de la vista especificado por el programador. Es un cubo de lado 2. Es un cubo de lado 1.

Utilizando una proyección perspectiva, ¿qué ocurre respecto al tamaño de la proyección de un objeto concreto si alejas la cámara de la escena?. El tamaño de la proyección disminuye. Nada, el tamaño de la proyección permanece constante. Se altera la relación de aspecto del volumen de la vista. El tamaño de la proyección aumenta.

¿En qué Shader operas con la matriz de transformación al área de dibujo?. A veces en el de vértices y a veces en el de fragmentos. En el de vértices. En ninguno, lo realiza la funcionalidad fija. En el de fragmentos.

Si P es la matriz de proyección, C la de la cámara y M la del modelo, ¿cuál es la matriz T por la que debes operar cada vértice (v' = T * v) ?. T=M*C*P. T=P*C*M. T=P*M*C. T=C*M*P.

Según la especificación de WebGL, la etapa de división perspectiva ... La realiza el procesador de vértices. La realiza el procesador de fragmentos. La realiza la funcionalidad fija de la GPU en una etapa posterior a la ejecución del Shader de fragmentos. La realiza la funcionalidad fija de la GPU en una etapa entre el procesado de los vértices y de los fragmentos.

Dado un tetraedro, señala la diferencia en bytes que existe entre almacenarlo utilizando el método de caras independientes y el de vértices compartidos. Asume que cada vértice almacena tres coordenadas, y que almacenar una coordenada o un índice cuesta lo mismo, es decir, 4 bytes. 12. 48. 24. 0.

Dado un cubo modelado mediante triángulos, señala la diferencia en bytes que existe entre almacenarlo utilizando el método de caras independientes y el de vértices compartidos. asume que cada vértice amacena tres coordenadas, y que almacenar una coordenada o un índice cuesta lo mismo, es decir, 4 bytes. 256. 192. 0 bytes, ocupan lo mismo ambas representaciones. 144.

¿Qué tipos de procesadores soporta WebGL 2.0?. De geometría, vértices y fragmentos. De vértices y fragmentos. De teselación, geometría y fragmentos. De cálculo, teselación, geometría y fragmentos.

¿Qué entendemos por optimizar un modelo poligonal?. Subdividir cada polígono de manera qu puedas obtener una representación visual más exacta. Eliminar información del modelo que bajo algún criterio resulte innecesaria. Convertir, en el caso de haberlos, los polígonos de más de tres vértices en triángulos. Disponer los datos del modelo buscando eficiencia en almacenamiento y visualización.

¿Por qué podría ser interesante hacer que todas las caras de una malla poligonal estén orientadas de la misma forma?. No hay ningún motivo por el que sea interesante, no es más que algo que se hace por convención. Por eficiencia en el proceso de dibujado, ya que así es posible detectar y no dibujar los triángulos que pertenecen a la parte trasera de objetos cerrados. Por eficiencia en el proceso de dibujado, ya que así es posible detectar y no enviar al sistema gráfico los triángulos que pertenecen a la parte trasera de objetos cerrados. Por eficiencia de almacenamiento, ya que así una malla poligonal representada por vértices compartidos ocuparía menos espacio.

Para poder utilizar WebGL en Html5, ¿qué debes hacer en primer lugar?. Crear un elemento de tipo Canvas y nada más, ya que a partir de este ya puedo dibujar directamente sobre él. Nada en especial, con WebGL puedo dibujar directamente sobre la página Web sin crear ningún elemento específico ni solicitar la creación de un contexto. Crear un elemento de tipo Canvas y, a partir de este, obtener un contexto WebGL. Crear un contexto WebGL y, a partir de este, crear un elemento de tipo Canvas.

¿Cuál es el número mínimo de buffers que necesitas en WebGL para almacenar un modelo poligonal que itiliza la representación de vértices compartidos si para cada vértice almacenas coordenadas y normal?. Ninguno, WebGL no requiere que los datos se almacenen en buffers. Tantos buffers como vértices tenga el modelo. Tres, uno por cada atributo y otro para los índices. Dos, uno para los atributos de los vértices y otro para los índices.

¿Cómo detectar si una malla poligonal es cerrada?. Comprobar que cada arista esté compartida por dos polígonos. Comprobar que haya al menos una arista utilizada por un único polígono. Comprobar que los vectores directores de las aristas compartidas estén en sentido contrario. Comprobar que los vértices compartidos estén almacenados una única vez en la lista de vértices.

¿Qué entendemos por simplificar un modelo poligonal?. Convertir, en el caso de haberlos, los polígonos de más de tres vértices en triángulos. Disponer los datos del modelo buscando eficiencia en almacenamiento y visualización. Subdividir cada polígono de manera que puedas obtener una representación visual más exacta. Eliminar información que bajo algún criterio resulte innecesaria.

¿Qué hace la función gl.clear(gl.COLOR_BUFFER_BIT)??. Interroga a WebGL sobre la disponibilidad de un buffer de color. Rellena el buffer de color con el color de fondo especificado con la funcion gl.clearColor. Especifica el color de fondo a utilizar por la aplicación. Crea un buffer de color.

Cuántos triángulos pinta la siguiente orden: gl.drawElements(gl.TRIANGLE_STRIP, 30, gl.UNSIGNED__SHORT, 12);. creo que 30. Teniendo en cuenta que cada índice es un unsigned short, es decir, dos bytes, me salen 22 triángulos. 28 como mucho, puede que alguno menos. exactamente 28.

A la hora de visualizar un triángulo de manera independiente, ¿cuántas veces se aplica el modelo de iluminación si se utiliza el modelo de sombreado de Gouraud?. 1, por ser un triángulo independiente. 1 vez por cada fragmento generado al rasterizar el triángulo. 3, una vez por cada vértice. No lo puedo saber ya que ese modelo de sombreado no establece el número de veces que se aplica el modelo de iluminación.

A la hora de visualizar un triángulo, ¿cuántas veces se aplica el modelo de iluminación si se utiliza el modelo de sombreado de Phong?. 1 por cada fragmento generado al rasterizar el triángulo. Sólo tiene sentido una sola vez, ya que al ser un único triángulo la normal es la misma en los tres vértices. 3, una vez por cada vértice. 1, por ser un único triángulo.

En la implementación del modelo de sombreado de Gouraud, en el shader visto en clase, ¿qué vectores ha de interpolar la GPU?. La normal, y los vectores L, V y R. Ninguno. La normal, y los vectores L y V. Solo la normal.

¿Cuáles de los siguientes parámetros diferencia a un foco de luz de una luz posicional?. Dirección del foco de luz. Ángulo que determina la forma del cono de luz. Intensidad de la fuente de luz. Posición del foco de luz.

En el modelo de iluminación de Phong, ¿cuáles de los siguientes aspectos se tienen en cuenta?. Reflexión difusa. Reflexión especular. Refracción difusa. Iluminación ambiente.

En el modelo de iluminación de Phong, la atenuación de la luz se aplica a ... Sólo a la reflexión difusa y a la especular. Sólo a la reflexión especular. Sólo a la reflexión difusa. La luz ambiente, la reflexión difusa y a la especular.

En el modelo de iluminación de Phong, ¿cuándo el producto escalar entre N y L produce siempre un valor negativo?. Cuando el ángulo entre N y L es mayor que 0 grados. Cuando el ángulo entre N y L es menor que 90 grados. Cuando el ángulo entre N y L es justo 90 grados. Cuando el ángulo entre N y L es mayor que 90 grados.

Cuál de los siguientes parámetros se utiliza en el modelo de iluminación de Phong para simular el efecto de atenuación de la luz con la distancia. La distancia de la fuente de luz al objeto. La distancia del observador a la fuente de luz. La distancia del objeto al observador. La normal de la superficie.

Indica la afirmación correcta. El modelo de iluminación establece cómo usar el modelo de sombreado. Ni el modelo de iluminación establece cómo usar el modelo de sombreado, ni el de sombreado cómo usar el de iluminación. El modelo de sombreado establece cómo usar el modelo de iluminación. Tanto el modelo de iluminación establece cómo usar el modelo de sombreado, como el de sombreado el de iluminación.

En el modelo de iluminación de Phong, la reflexión difusa se modela mediante el producto escalar de los vectores: la normal y el vector de reflexión de la fuente de luz. el vector que apunta al observador y el vector que apunta a la fuente de luz. el vector que apunta a la fuente de luz, y el vector normal. la normal y el vector que apunta al observador.

¿Dónde se realizan principalmente los cálculos de la iluminación si se utiliza el modelo de sombreado de Phong?. En la etapa de procesado de vértices. En la CPU. En la etapa de procesado de fragmentos. En la etapa de procesado del píxel.

En el modelo de iluminación de Phong, la reflexión especular se modela mediante el producto escalar de los vectores: El vector que apunta a la fuente de luz, y el vector normal. La normal y el vector que apunta al observador. El vector de reflexión de la fuente de luz y el vector que apunta al observador. El vector que apunta al observador y el vector que apunta a la fuente de luz.

En la implementación del modelo de sombreado de Phong, en el shader visto en clase, ¿qué vectores interpola la GPU?. La normal, y los vectores L y V. La normal, y los vectores L, V y R. Solo la normal. La normal y el vector L.

Para qué tipo de fuente de luz el vector L es constante. Ninguna. Direccional. Posicional. Posicional y direccional.

Trabajando con coordenadas de textura mayores que uno, y si se desea extender el color del borde de la textura, las coordenadas de textura [1´7,0´3] se transforman en: [1,0´3]. [0´7,0´3]. [0´7,1]. [1,1].

Obtener las coordenadas de textura de superficies paramétricas se caracteriza por... Ser un proceso muy simple ya que los parámetros u y v que permiten obtener la geometría de la superficie nos van a servir como coordenadas de textura. Coincidir, para cada punto, la coordenada de textura con la normal de la superficie. Ser un proceso manual, es imposible obtenerlas de otra manera. Ser un proceso muy costoso, ya que hay que obtener el diferencial para cada vértice de la superficie.

Trabajando con coordenadas de textura mayores a uno y si se desea repetir la textura, las coordenadas de textura [1´5,3´7] se convierten en: [1,1]. [0´5,0´7]. [1,0´7]. [0´5,0´3].

Sobre las coordenadas de textura (piensa en una imagen 2D que vas a utilizar como textura), señala la afirmación correcta: La imagen a utilizar como textura ha de ser cuadrada que el espacio de textura es un cuadrado de lado 1. En el espacio de la textura, el rango válido para una coordenada de estura es [0..1] tanto en dirección s como en t. El rango de coordenadas de textura válido en el espacio de la textura depende del tamaño en píxeles de la imagen a utilizar como textura. Una imagen de dimensión 1024x512 pixeles utilizada como textura, en el sepacio de la textura sus coordenadas varían en el rango [0..1] en s y en el rango [0..0´5] en t.

¿Cuántos tíxeles utiliza el filtrado bilineal para obtener un valor de una textura 2D?. 2. 8. 4. 1.

Utilizando una textura 2D, a el problema de obtener un valor de la textura cuando un píxel se corresponde con muchos texeles se denomina... Magnificación. Minimización. Filtrado trilineal. Anisotrópico.

Piensa en una escena en la que la cámara está situada a la altura media de los ojos de una persona en dirección al horizonte. La escena muestra un suelo plano casi infinito con una textura aplicada. ¿Dónde se aprecia con mayor claridad el problema de la minimización?. En ningún sitio. En la parte del suelo más lejana al observador. En la parte del suelo más cercana al observador.

¿Cuál de las siguientes afirmaciones sobre Normal Mapping y Displacement Mapping es cierta?. Normal mapping no modifica la geometría del objeto, y displacement mapping tampoco. Tanto normal mapping como displacement mapping modifican la geometría del objeto. Normal mapping modifica la geometría del objeto, pero displacement mapping no. Normal mapping no modifica la geometría del objeto, pero displacement mapping sí.

Sobre la técnica de texturización conocida como relfection mapping (o environment mapping) señala las afirmaciones correctas: Si el objeto reflejante permanece estático en la escena, sus coordenadas de textura cambian si el observador se mueve. En el caso de utilizar un cube map como mapa de entorno, la textura está formada por seis imágenes 2D. No es necesario que se suministren las coordenadas de texturas del objeto reflejante ya que se han de calcular en tiempo de ejecución. Permite simular que un objeto refleja su entorno.

A la hora de visualizar un skyboc, ¿qué se utiliza como coordenadas de textura?. Las coordenadas de los vértices del cubo, sin transformar y sin ser interpoladas para cada fragmento. Las coordenadas de los vértices del cubo multiplicadas por la matriz modelo-vista pero no interpoladas para cada fragmento. Las coordenadas de los vértices del cubo sin transformar e interpoladas para cada fragmento. Las coordenadas de los vértices del cubo multiplicadas por la matriz modelo-vista e interpoladas para cada fragmento.

En el Shader de rayado se realiza la siguiente operación: float s = step(Width, scaledT);. ¿Qué valores puede tomar la variable 's' como resultado de la ejecución de esa operación?. Un valor en el rango [0..1]. Width o scaledT. Un valor en el rango [Width..scaledT]. Cero o uno.

Señala las respuestas que consideres que se corresponden con ventajas de las texturas procedurales frente a texturas de imagen 2D. El consumo de memoria. La resolución. La parametrización de aspectos clave. La velocidad de proceso.

Si deseas utilizar texturas procedurales, ¿estás de acuerdo en que nunca es necesario proporcionar coordenadas de textura como atributo por cada vértice?. No, en absoluto, siempre voy a necesitar proporcionar las coordenadas de textura como atributo para cada vértice. Si, es precisamente una de las principales ventajas frente a utilizar texturas de imagen 2D. Si, nunca necesito que se proporcionen como atributo pero aún así debo obtenerlas en el vertex shader. No, depende de la propia función de textura, como por ejemplo el caso del Enrejado en el que sí que hace falta.

¿Qué desventajas presenta utilizar texturas de ruido frente a utilizar funciones de ruido?. Velocidad de proceso. Consumo de memoria. Continuidad. Comportamiento independiente del hardware.

En WebGL, ¿cómo se establece la transparencia a nivel de fragmento?. Utilizando la coordenada homogénea de cada vértice. Utilizando la cuarta componente, con valores en el rango [0..1], de la variable que asigna el color al fragmento. Utilizando la variable especial gl_BlendFactor. En el fragment shader, calculando el resultado del operador over y asignándolo a la variable que determina el color del fragmento.

En el método de sombras proyectivas, ¿cuántas veces se ha de dibujar un objeto sombra?. Dos veces. Depende del número de planos sobre los que se desea que la sombra aparezca, es decir, tantas veces como planos sobre los que se desea que la sombra pueda ser visible. Ninguna, simplemente se modifica el color del fragmento dependiendo de si pertenece o no a la zona en sombra. Una sola vez.

En el cálculo de la transparencia mediante el operador over se utilizan dos valores de color, ¿cuáles son?. Color del framebuffer pero con pesos distintos. Color del fragmento y componente Kd del material del objeto transparente. Color del fragmento y color del skybox. Color del fragmento y color del framebuffer.

¿Qué objetivo tiene el método Percentage-closer filtering, PCE, cuando se utiliza junto con el método shadow mapping?. Evitar que las sombras sean demasiado opacas, sobre todo allí donde varias sombras se solapan. Mejorar la calidad visual en los bordes de las sombras haciéndolos más suaves. Resolver el problema de la baja precisión numérica que produce a su vez el stitching o z-fighting. Mejorar la calidad visual en los bordes de las sombras haciéndolos más afilados.

¿Qué sentido tiene utilizar un buffer de plantilla a la hora de dibujar escenas que contengan un espejo si se utiliza el método basado en simetría?. Almacenar la profundidad de cada fragmento visto desde la cámara normal. Ninguno, no hay ningún método que utilice dicho buffer a la hora de dibujar objetos espejo. Evitar que los objetos reflejados se dibujen más allá de los límites del objeto reflejante. Almacenar la imagen vista desde detrás del espejo.

Imagina que pintas varios polígonos con el mismo factor de transparencia, y cuyas proyecciones se superponen. Si cada vez que pintas la escena envías los polígonos transparentes en un orden diferente, y la función de transparencia que utilizas es Cfinal = alpha * Cfragment + Cframebuffer, ¿que ocurrirá justo en la zona donde los polígonos transparentes se superponen?. A mayor número de polígonos coincidentes mayor será el efecto de transparencia en esa zona. Independientemente del orden siempre se obtendrá el mismo valor de color. Dependiendo del orden obtendré cada vez un color diferente. Independientemente del orden siempre se obtendrá el mismo valor de color, pero esto deja de ser cierto si cada polígono tiene un factor de transparencia distinto.

En el método de shadow mapping, ¿qué y dónde se almacena la vista obtenida desde la fuente de luz para después ser reutilizada al pintar la escena por segunda vez?. Almacena el color definitivo de cada fragmento y lo hace en un objeto textura. Almacena la profundidad de cada fragmento junto a su normal interpolada, y lo hace en un objeto textura. Almacena la profundidad de cada fragmento y lo hace en un objeto textura. Almacena la profundidad de cada fragmento y lo hace en un buffer de profundidad.

Si quiero implementar el método de sombras proyectivas en WebGL, necesito utilizar un buffer de plantilla ... Siempre que necesite que la sombra no sea totalmente opaca. Para resolver el problema del stitching. Para evitar una visualización incorrecta cuando la sombra supere los límites del plano sobre el que recae. Para disponer de más precisión en el cálculo de la profundidad.

Si añadimos al shader la corrección gamma y fijamos un valor de gamma igual a 2'0, ¿cómo crees que afectará a la imagen final?. La veremos con un claro decremento de intensidad. La veremos con un incremento justo del cuadrado de la intensidad. La veremos igual. La veremos con un claro incremento de intensidad.

En el método de selección de objetos utilizando un FBO, ¿dónde se pinta en primer lugar?. En un objeto textura. En el FBO. En el buffer de Color. En el buffer de Plantilla (stencil).

Respecto a los sistemas de partículas, ¿cuál de las siguientes afirmaciones es correcta?. Se utilizan para modelar objetos con forma bien definida. No pueden utilizarse texturas 2D en el proceso de visualización. Son constantes con el tiempo. La actualización de la posición de cada partícula se hará en el vertex shader.

En el método de antialiasing FSAA, ¿cuántas veces se ejecuta el fragment shader para cada píxel de la imagen final?. Una sola vez. Una vez por cada muestra. La mitad de veces que muestras se tomen por píxel. Cuatro, ya que siempre se toman cuatro muestras.

Denunciar Test