苹果发表论文:在手机内存上运行大模型
2023 年 12 月 21 日

苹果发布了一篇论文,介绍了一种在超出可用 DRAM 容量的设备上运行大语言模型(LLM)的方法。通过提高内存使用效率,该方法能使有限容量的设备运行内存大小翻倍,同时 GPU 的推理速度提升数十倍。这项突破性研究有望加速苹果将生成式 AI 集成到 iOS 18 的计划。

专业版功能专业版功能
登录
体验专业版特色功能,拓展更丰富、更全面的相关内容。

行业标签

二维码

更多体验

前往小程序

二维码

24 小时

资讯推送

进群体验

logo
科技新闻,每天 3 分钟