Translations:Diffusion Models Are Real-Time Game Engines/64/es
Evaluamos el impacto de cambiar el número de observaciones pasadas en el contexto de condicionamiento entrenando modelos con (recordemos que nuestro método utiliza ). Esto afecta tanto al número de fotogramas históricos como al de acciones. Entrenamos los modelos durante 200.000 pasos manteniendo congelado el decodificador y evaluamos en trayectorias de prueba de 5 niveles. Véanse los resultados en la Tabla 1. Como era de esperar, observamos que la calidad de la generación mejora con la longitud del contexto. Curiosamente, observamos que, aunque la mejora es grande al principio (por ejemplo, entre 1 y 2 fotogramas), rápidamente nos acercamos a una asíntota y seguir aumentando el tamaño del contexto sólo proporciona pequeñas mejoras en la calidad. Esto es algo sorprendente, ya que incluso con nuestra longitud de contexto máxima, el modelo sólo tiene acceso a poco más de 3 segundos de historia. En particular, observamos que gran parte del estado del juego persiste durante períodos mucho más largos (véase la Sección 7). Aunque la longitud del contexto de condicionamiento es una limitación importante, la Tabla 1 sugiere que probablemente necesitaríamos cambiar la arquitectura de nuestro modelo para soportar eficientemente contextos más largos, y emplear una mejor selección de los fotogramas pasados sobre los que condicionar, lo que dejamos para futuros trabajos.