All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)'''Limitations.''' GameNGen suffers from a limited amount of memory. The model only has access to a little over 3 seconds of history, so it’s remarkable that much of the game logic is persisted for drastically longer time horizons. While some of the game state is persisted through screen pixels (e.g., ammo and health tallies, available weapons, etc.), the model likely learns strong heuristics that allow meaningful generalizations. For example, from the rendered view, the model learns to infer the player’s location, and from the ammo and health tallies, the model might infer whether the player has already been through an area and defeated the enemies there. That said, it’s easy to create situations where this context length is not enough. Continuing to increase the context size with our existing architecture yields only marginal benefits (Section [https://arxiv.org/html/2408.14837v1#S5.SS2.SSS1 5.2.1]), and the model’s short context length remains an important limitation. The second important limitation is the remaining differences between the agent’s behavior and those of human players. For example, our agent, even at the end of training, still does not explore all of the game’s locations and interactions, leading to erroneous behavior in those cases.
 h Spanish (es)'''Limitaciones.''' GameNGen sufre de una cantidad limitada de memoria. El modelo solo tiene acceso a poco más de 3 segundos de historial, por lo que es notable que gran parte de la lógica del juego se mantenga durante horizontes temporales drásticamente más largos. Aunque parte del estado del juego se mantiene a través de los píxeles de la pantalla (por ejemplo, los recuentos de munición y salud, las armas disponibles, etc.), es probable que el modelo aprenda fuertes heurísticas que permiten generalizaciones significativas. Por ejemplo, a partir de la vista renderizada, el modelo aprende a inferir la ubicación del jugador, y a partir de los recuentos de munición y salud, el modelo podría inferir si el jugador ya ha pasado por una zona y derrotado a los enemigos que había allí. Dicho esto, es fácil crear situaciones en las que esta longitud de contexto no sea suficiente. Continuar aumentando el tamaño del contexto con nuestra arquitectura actual solo produce beneficios marginales (Sección [https://arxiv.org/html/2408.14837v1#S5.SS2.SSS1 5.2.1]), y la corta longitud del contexto del modelo sigue siendo una limitación importante. La segunda limitación importante son las diferencias que aún existen entre el comportamiento del agente y el de los jugadores humanos. Por ejemplo, nuestro agente, incluso al final del entrenamiento, todavía no explora todas las ubicaciones e interacciones del juego, lo que conduce a un comportamiento erróneo en esos casos.
 h Chinese (zh)'''局限性。''' GameNGen 存在内存有限的情况。该模型只能访问稍超过3秒的历史记录,因此许多游戏逻辑能够在更长的时间跨度内被保存,这一点令人惊讶。虽然部分游戏状态是通过屏幕像素(如弹药和健康统计、可用武器等)来持久化的,但模型可能学习了强大的启发式方法,从而能够进行有意义的概括。例如,从渲染视图中,模型可以学习推断玩家的位置,而从弹药和健康统计中,模型可能推断玩家是否已经穿过某个区域并击败了那里的敌人。尽管如此,很容易出现上下文长度不足的情况。在现有架构下继续增加上下文大小只能带来微小的好处(第[https://arxiv.org/html/2408.14837v1#S5.SS2.SSS1 5.2.1]节),模型的上下文长度偏短仍然是一个重要限制。第二个重要限制是代理的行为与人类玩家的行为之间仍然存在差异。例如,即使在训练结束后,我们的代理仍然无法探索游戏中的所有地点和互动,从而导致在这些情况下出现错误行为。