Translations:Diffusion Models Are Real-Time Game Engines/74/zh

    From Marovi AI

    總體而言,我們觀察到在隨機軌跡上訓練模型的效果出奇地好,但受到隨機策略探索能力的限制。在比較單幀生成時,代理的效果稍好,PSNR 為 25.06,而隨機策略為 24.42。在比較 3 秒自回歸生成後的幀時,差距增大到 19.02 對 16.84。在手動操作模型時,我們發現某些區域對兩者都很容易,而某些區域對兩者都很困難,而在某些區域,代理的表現要好得多。基於此,我們根據它們與遊戲起始位置的距離手動將 456 個例子分為三組:易、中等和難。我們觀察到,在簡單和困難集上,代理的表現僅略優於隨機,而在中等集上,正如預期的那樣,代理的表現要好得多(見表 2)。請參見附錄 A.5 中的圖 13,了解人類單次遊戲的得分情況。