英伟达与 MIT 合作推出 Fast-dLLM 框架,AI 推理速度提升 27.6 倍
上周二

英伟达联合 MIT香港大学发布 Fast-dLLM 框架,大幅提升扩散模型推理速度最高至 27.6 倍。该框架通过块状近似 KV 缓存机制和置信度感知并行解码策略,解决计算冗余和依赖冲突问题,在多个基准测试中实现显著加速,同时保持生成质量接近基线水平,为扩散模型的实际应用提供了强大支持。

专业版功能专业版功能
登录
体验专业版特色功能,拓展更丰富、更全面的相关内容。

行业标签

二维码

更多体验

前往小程序

二维码

24 小时

资讯推送

进群体验

logo
科技新闻,每天 3 分钟