Translations:Diffusion Models Are Real-Time Game Engines/56/es: Difference between revisions

    From Marovi AI
    (Created page with "'''Calidad del vídeo.''' Utilizamos la configuración autorregresiva descrita en la sección [https://arxiv.org/html/2408.14837v1#S2 2], en la que muestreamos iterativamente los fotogramas siguiendo las secuencias de acciones definidas por la trayectoria del ground truth, mientras condicionamos el modelo a sus propias predicciones pasadas. Cuando se muestrean autorregresivamente, las trayectorias predichas y las del ground truth suelen divergir después de unos pocos pa...")
     
    (No difference)

    Latest revision as of 03:26, 7 September 2024

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Diffusion Models Are Real-Time Game Engines)
    '''Video Quality.''' We use the auto-regressive setup described in Section [https://arxiv.org/html/2408.14837v1#S2 2], where we iteratively sample frames following the sequences of actions defined by the ground-truth trajectory, while conditioning the model on its own past predictions. When sampled auto-regressively, the predicted and ground-truth trajectories often diverge after a few steps, mostly due to the accumulation of small amounts of different movement velocities between frames in each trajectory. For that reason, per-frame PSNR and LPIPS values gradually decrease and increase respectively, as can be seen in Figure [https://arxiv.org/html/2408.14837v1#S5.F6 6]. The predicted trajectory is still similar to the actual game in terms of content and image quality, but per-frame metrics are limited in their ability to capture this (see Appendix [https://arxiv.org/html/2408.14837v1#A1.SS1 A.1] for samples of auto-regressively generated trajectories).

    Calidad del vídeo. Utilizamos la configuración autorregresiva descrita en la sección 2, en la que muestreamos iterativamente los fotogramas siguiendo las secuencias de acciones definidas por la trayectoria del ground truth, mientras condicionamos el modelo a sus propias predicciones pasadas. Cuando se muestrean autorregresivamente, las trayectorias predichas y las del ground truth suelen divergir después de unos pocos pasos, principalmente debido a la acumulación de pequeñas diferencias en las velocidades de movimiento entre los fotogramas de cada trayectoria. Por ese motivo, los valores de PSNR y LPIPS por fotograma disminuyen y aumentan gradualmente, respectivamente, como puede verse en la figura 6. La trayectoria predicha sigue siendo similar a la del juego real en términos de contenido y calidad de imagen, pero las métricas por fotograma son limitadas en su capacidad para captar esto (véase el apéndice A.1 para ver muestras de trayectorias generadas autorregresivamente).