Rain科技 4 月 10 日消息,Intel 在近日的视频中详细介绍了 Texture Set Neural Compression(TSNC)技术,通过神经网络大幅降低现代游戏的显存占用。
TSNC 的核心思路与 NVIDIA NTC 方案类似,不再采用传统方式压缩纹理和材质数据,而是将其转换为学习型表示,由一个小型神经网络在 GPU 端实时重建所需信息。
这一方式可以同时缩减游戏下载体积、节省 SSD 存储空间,并大幅降低显存占用。
Intel 提供了两种压缩模式:注重画质的模式可实现约 9 倍压缩率,画质损失较小;更激进的模式则可达到 17 至 18 倍的压缩率,但会出现画质瑕疵。
NVIDIA 则声称在几乎不损失画质的前提下,将显存占用从 6.5GB 压缩至 970MB,压缩率约为 85%,不过两者采用了不同的基准和测试场景,直接对比意义有限。
硬件支持方面,NVIDIA 的方案深度绑定 RTX 生态,主要依赖 GeForce RTX 显卡中的 Tensor Core 加速,虽然目前已通过 DirectX 12 Cooperative Vectors 开放了更通用的路径,但整体仍围绕自家 RTX 平台构建。
Intel 则为 TSNC 设计了双重加速路径,通过 Arc GPU 中的 XMX 单元实现硬件加速,同时提供基于 FMA 指令的软件模式,即使没有专用 AI 硬件也能运行。
NVIDIA 的优势在于 RTX 显卡在游戏市场的占有率远高于 Intel,生态成熟度更高,但 Intel 的兼容策略更为开放,不依赖特定 AI 加速硬件即可工作。
从行业趋势来看,随着游戏画质不断逼近硬件极限,显存容量已成为制约中高端显卡性能释放的关键瓶颈。尤其是在 2K 及 4K 分辨率下,高清纹理带来的显存压力日益显著,此类神经压缩技术的出现恰逢其时。
值得注意的是,Intel 选择的开放路径可能更有利于技术的普及。相较于绑定特定硬件生态,能够在更多样化的硬件环境中运行,意味着旧款显卡或非旗舰型号也能受益,这对于缓解玩家的硬件升级焦虑具有积极意义。
当然,神经压缩技术并非万能,其重建过程必然带来额外的计算开销。在实际游戏场景中,如何在降低显存占用的同时,确保帧率不受影响甚至有所提升,将是衡量该技术成败的关键指标。未来双方在实际游戏中的表现,值得期待。
