英伟达在Github发布了最新的供正DLSS SDK 310.3.0,正式向开发者提供。Transformer模型对场景的理解更加深入。基于CNN的DLSS已使用超过六年,宣布Transformer模型已经完成了测试,更出色的运动细节以及更平滑的边缘。
英伟达日前已经在Github发布了最新的DLSS SDK 310.3.0,正式向开发者提供。该升级还包括对DLSS光线重建、
NVIDIA已完成Beta测试,新的Transformer模型比CNN更先进。为未来的升级和图像质量模型奠定了基础。其中Transformer模型是DLSS4全面升级的一部分,它还能提升光线重建(Ray Reconstruction)的图像质量,该公司已经达到了CNN的极限。更少的重影、NVIDIA表示,之前的DLSS版本依赖于CNN(卷积神经网络),甚至跨多个帧进行评估。尤其是在光线条件较为复杂的场景中。该网络通过聚焦当前帧和之前帧的局部区域来生成像素。
英伟达在CES 2025上宣布了其DLSS超分辨率技术的最新一代升级,该公司表示,仅仅发布新的升级配置文件已远远不够。