Translations:Diffusion Models Are Real-Time Game Engines/64/zh
我們通過訓練使用的模型來評估改變條件上下文中過去觀測值數量的影響(請注意,我們的方法使用)。這影響了歷史幀和動作的數量。我們在解碼器保持凍結的情況下訓練模型200,000步,並在5個級別的測試集軌跡上進行評估。結果見表1。正如預期的那樣,我們發現生成質量隨着上下文長度的增加而提高。有趣的是,我們觀察到,儘管最初(例如在1到2幀之間)提升較大,但很快就接近一個漸近線,進一步增加上下文長度只能帶來微小的質量提升。這有些令人驚訝,因為即使在我們使用的最大上下文長度下,模型也只能訪問略多於3秒的歷史。值得注意的是,我們觀察到大部分遊戲狀態會持續更長時間(見第7節)。雖然條件上下文長度是一個重要的限制,但表1提示我們可能需要改變模型的架構,以有效支持更長的上下文,並更好地選擇過去的幀作為條件,這將是我們未來的工作。