跳到正文
Back to Feed

总结

英伟达1月6日宣布为搭载GeForce RTX 30/40/50显卡的RTX AI PC提供“免费性能升级”,新增原生NVFP4/NVFP8低精度格式以提升本地AI推理效率并缓解显存瓶颈。官方称GPT-OSS、Nemotron Nano V2等大模型最高提速40%,ComfyUI Flux.1等创意生成最高提升4.6倍;模型体积可缩小最高60%,并可将部分负载卸载到系统内存以释放显存。同步推出RTX驱动的LTX-2音频转视频模型,20秒生成4K视频且在NVFP8下可获2倍增益;2月将把RTX视频超分带到ComfyUI,并把AI视频搜索引入Nexa Hyperlink以便本地检索素材。

正文

IT之家 1 月 6 日消息,英伟达今天(1 月 6 日)发布公告,针对 RTX AI PC 推出重大"免费性能升级",引入支持 NVFP4 和 NVFP8 格式等,进一步提升 AI 处理效率。 IT之家注:RTX AI PC 是指配备 NVIDIA GeForce RTX GPU(RTX 30 系列、40 系列或 50 系列)的个人电脑,旨在利用其内置的专用 AI Tensor Core 提供先进的 AI 性能和体验,涵盖游戏、内容创作和日常生产力任务。 在大语言模型(LLM)方面,针对 GPT-OSS、Nemotron Nano V2 等模型, 本次升级最高提升其运行速度 40% ;在创意生成领域,本次升级通过在 ComfyUI Flux.1 等工具中启用原生 NVFP4 支持,性能提升达到了惊人的 4.6 倍。 本次更新引入原生支持 NVFP4 和 NVFP8,不仅提升了速度,并缓解了本地 AI 运行的显存瓶颈痛点。 新技术能将模型体积缩小最高 60% ,并支持将部分负载卸载至系统内存(RAM),从而释放宝贵的显卡显存(VRAM)。相较于之前的 BF16 指令集,新模式显著降低了硬件门槛,让更多中端配置的 PC 也能流畅运行复杂的 AI 模型。 IT之家注:NVFP4 全称为 NVIDIA Floating Point 4,是一种极度压缩的数据格式。想象一下,原本一个数字需要占用 16 个"格子"(BF16),现在只需要 4 个"格子"就能存下,同时还能保持计算准确,这让显卡能"装"下更大的 AI 模型。 在视频创作流方面,英伟达推出了由 RTX 驱动的 LTX-2 音频转视频模型。作为目前市场上排名第一的开放权重视频模型,它能在 20 秒内生成 4K 视频,配合 NVFP8 支持可实现 2.0 倍的性能增益。 此外,RTX 视频超分辨率技术将于 2 月登陆 ComfyUI,支持将 720p 生成视频提升至 4K。实测显示,完成"生成 + 超分"处理一段 10 秒 4K 视频的全流程仅需 3 分钟,而旧方法则需 15 分钟。 除了性能优化,英伟达还将 AI 视频搜索功能引入 Nexa Hyperlink。用户现可利用 RTX 优化的私有搜索功能,快速检索本地的视频、图像和文档。
发布时间: