蚂蚁自研 2900 亿参数大模型用国产 AI 芯片训练,计算成本 508 万元低于 DeepSeek
3 月 24 日

蚂蚁集团 CTO 何征宇带领团队开发了开源 MoE 模型 Ling-Lite 和 Ling-Plus,参数规模分别为 168 亿和 2900 亿。通过使用国产 AI 芯片及优化硬件系统,将计算成本降低约 20%,实现与通义 Qwen2.5 和 DeepSeek-V2.5 相当的性能。这是蚂蚁集团首次详细披露其在 AI 算力领域的进展,展示了低成本训练大模型的技术能力。

专业版功能专业版功能
登录
体验专业版特色功能,拓展更丰富、更全面的相关内容。

行业标签

二维码

更多体验

前往小程序

二维码

24 小时

资讯推送

进群体验

logo
科技新闻,每天 3 分钟