Back to Feed
总结
在 CES 2026 上,群联(Phison)宣布其原本面向独显的 aiDAPTIV+ 专利方案扩展至核显平台。该方案在 MoE 模型推理时将部分原需由内存承担的占用转移到成本更低的 SSD/NAND,并可把超出 KV 缓存容量的 token 暂存供后续 prompt 复用,减少重复计算并降低功耗。群联称,这让仅配备 32GB 内存的核显笔记本也有机会运行如 OpenAI GPT-OSS-120B 等大模型,旨在缓解 AI PC 的内存瓶颈并降低本地部署门槛。
正文
IT之家 1 月 8 日消息,群联 (Phison) 在 CES 2026 上宣布,其原本仅限于独显 (dGPU) 的 aiDAPTIV+ 专利方案现已支持核显 (iGPU) 平台: 用户可在仅配备 32GB 内存的核显笔记本上运行像 OpenAI GPT-OSS-120B 这样的大型 AI 模型 。 在 MoE 模型推理中,aiDAPTIV+ 可 将原本由内存承担的内存需求转移至成本更具优势的固态硬盘 ,大幅压缩内存占用;aiDAPTIV+ 还可 将超出 KV 缓存容量的 token 存储起来供后续 prompt 使用 ,避免重复计算并有效降低功耗。 IT之家早前相关文章: 《 推理性能超传统 10 倍,群联发布 aiDAPTIV+ 英特尔 AI PC 笔记本方案 》 《 群联 aiDAPTIV+ 技术破局"内存焦虑":用 NAND 玩转 AI 》 《 利用固态硬盘降低 AI 微调训练显存需求,群联展示 aiDaptiv+ 平台 》
发布时间: