Translations:Diffusion Models Are Real-Time Game Engines/64/zh
我们通过训练使用的模型来评估改变条件上下文中过去观测值数量的影响(请注意,我们的方法使用)。这影响了历史帧和动作的数量。我们在解码器保持冻结的情况下训练模型200,000步,并在5个级别的测试集轨迹上进行评估。结果见表1。正如预期的那样,我们发现生成质量随着上下文长度的增加而提高。有趣的是,我们观察到,尽管最初(例如在1到2帧之间)提升较大,但很快就接近一个渐近线,进一步增加上下文长度只能带来微小的质量提升。这有些令人惊讶,因为即使在我们使用的最大上下文长度下,模型也只能访问略多于3秒的历史。值得注意的是,我们观察到大部分游戏状态会持续更长时间(见第7节)。虽然条件上下文长度是一个重要的限制,但表1提示我们可能需要改变模型的架构,以有效支持更长的上下文,并更好地选择过去的帧作为条件,这将是我们未来的工作。