Translations:Diffusion Models Are Real-Time Game Engines/64/es: Difference between revisions

    From Marovi AI
    (Created page with "Evaluamos el impacto de cambiar el número <math>N</math> de observaciones pasadas en el contexto de condicionamiento entrenando modelos con <math>N \in \{ 1,2,4,8,16,32,64\}</math> (recordemos que nuestro método utiliza <math>N = 64</math>). Esto afecta tanto al número de fotogramas históricos como al de acciones. Entrenamos los modelos durante 200.000 pasos manteniendo congelado el decodificador y evaluamos en trayectorias de prueba de 5 niveles. Véanse los resulta...")
     
    (No difference)

    Latest revision as of 03:27, 7 September 2024

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Diffusion Models Are Real-Time Game Engines)
    We evaluate the impact of changing the number <math>N</math> of past observations in the conditioning context by training models with <math>N \in \{ 1,2,4,8,16,32,64\}</math> (recall that our method uses <math>N = 64</math>). This affects both the number of historical frames and actions. We train the models for 200,000 steps keeping the decoder frozen and evaluate on test-set trajectories from 5 levels. See the results in Table [https://arxiv.org/html/2408.14837v1#S5.T1 1]. As expected, we observe that generation quality improves with the length of the context. Interestingly, we observe that while the improvement is large at first (e.g., between 1 and 2 frames), we quickly approach an asymptote and further increasing the context size provides only small improvements in quality. This is somewhat surprising as even with our maximal context length, the model only has access to a little over 3 seconds of history. Notably, we observe that much of the game state is persisted for much longer periods (see Section [https://arxiv.org/html/2408.14837v1#S7 7]). While the length of the conditioning context is an important limitation, Table [https://arxiv.org/html/2408.14837v1#S5.T1 1] hints that we’d likely need to change the architecture of our model to efficiently support longer contexts, and employ better selection of the past frames to condition on, which we leave for future work.

    Evaluamos el impacto de cambiar el número de observaciones pasadas en el contexto de condicionamiento entrenando modelos con (recordemos que nuestro método utiliza ). Esto afecta tanto al número de fotogramas históricos como al de acciones. Entrenamos los modelos durante 200.000 pasos manteniendo congelado el decodificador y evaluamos en trayectorias de prueba de 5 niveles. Véanse los resultados en la Tabla 1. Como era de esperar, observamos que la calidad de la generación mejora con la longitud del contexto. Curiosamente, observamos que, aunque la mejora es grande al principio (por ejemplo, entre 1 y 2 fotogramas), rápidamente nos acercamos a una asíntota y seguir aumentando el tamaño del contexto sólo proporciona pequeñas mejoras en la calidad. Esto es algo sorprendente, ya que incluso con nuestra longitud de contexto máxima, el modelo sólo tiene acceso a poco más de 3 segundos de historia. En particular, observamos que gran parte del estado del juego persiste durante períodos mucho más largos (véase la Sección 7). Aunque la longitud del contexto de condicionamiento es una limitación importante, la Tabla 1 sugiere que probablemente necesitaríamos cambiar la arquitectura de nuestro modelo para soportar eficientemente contextos más largos, y emplear una mejor selección de los fotogramas pasados sobre los que condicionar, lo que dejamos para futuros trabajos.