近期,在图形处理器技术大会(GTC 2026)上,英伟达(NVIDIA)正式发布了名为神经纹理压缩(Neural Texture Compression,简称 NTC)的全新 AI 驱动技术。这项技术据称能直接将游戏显存占用削减高达 85%,同时保证视觉画质不妥协,为日益增长的高画质游戏开发与硬件性能优化需求提供了有力的解决方案。
随着游戏不断追求电影级别的写实效果,场景细节和材质复杂度呈指数级增长,显存消耗过大已经成为游戏开发者和硬件厂商共同面临的普遍挑战。传统的基于区块的压缩方法,比如常见的 BCn 格式,在压缩率和最终画面质量之间往往需要艰难取舍,难以满足下一代 3A 大作对高分辨率纹理和高效率运行的双重要求。

上图为来自 Wccftech 的报道截图,直观展示了在托斯卡纳别墅(Tuscan Villa)场景中,使用传统 BCn 纹理需要占用 6.5GB 显存,而采用英伟达 NTC 技术后,显存占用骤降至仅 970MB,视觉效果却几乎一致。
那么,英伟达的 NTC 技术究竟是如何做到这一点的呢?其核心在于利用一个轻量级的 神经网络 来完成纹理的解压缩工作,这与传统的固定算法解码有本质区别。这种“智能”压缩方式能够更高效地保留纹理的关键细节信息。
官方实测数据提供了更具说服力的证据:在运行托斯卡纳别墅场景时,标准区块压缩(BCn)需要占用 6.5GB 显存,而采用 NTC 技术后,显存占用仅为 970MB。另一个例子是,一个未压缩的飞行头盔纹理体积为 272MB,经过 NTC 压缩后,大小缩小到仅 11.37MB,相当于原体积的约 1/24。这不仅极大缓解了显存压力,也使得游戏安装包体积管理更为高效。更令人惊喜的是,在同等显存预算下,NTC 技术甚至能将渲染纹理的分辨率提升至原来的四倍,实现画质的正向增益。
基于相似的原理,英伟达还展示了其神经材质技术。该技术同样利用 神经网络 来解析和处理复杂的材质数据,替代了传统高成本的材质计算流程。在 1080p 分辨率下,该技术实现了最高 7.7 倍的渲染速度提升,且未损失画面质量。无论是 NTC 还是神经材质技术,它们都依赖于 GPU 上专用的矩阵加速引擎(如 Tensor Core)运行,这意味着它们能够在不占用核心图形计算资源的前提下高效工作,保证了整体运行的稳定性。
从整个行业生态来看,将 AI 与神经网络应用于实时图形渲染并非英伟达一家在探索。微软已经以“协同向量”的名义将类似技术整合到了其 DirectX 标准之中。英特尔和 AMD 等厂商也纷纷展示了各自在神经渲染领域的研发成果和演示。这种多方并进的局面,正推动着神经渲染技术从实验室走向行业标准化和普及化。尽管目前尚未有已上市的游戏正式应用此项技术,但业界普遍预期,这类能够显著优化性能和画质的技术将很快进入实用阶段,深刻影响未来游戏开发和硬件设计的走向。
技术的发展总是围绕着解决实际痛点展开。从传统光栅化到光线追踪,再到如今的 神经网络 辅助渲染,每一次变革都旨在让虚拟世界更加真实,同时运行得更高效。对游戏开发者和图形技术爱好者而言,持续关注像 NTC 这样的前沿技术动态,无疑能帮助我们更好地把握行业脉搏。如果你想与更多同行交流实时渲染、GPU 加速计算等前沿话题,不妨来 云栈社区 的 人工智能 或 智能 & 数据 & 云 板块参与讨论,分享见解。
|