热门话题
每日早报
排行榜
AI
科技动态
财经快讯
医疗产业
汽车
专业版
登录
字节开源 MoE 模型架构优化技术:效率提高 1.7 倍,训练成本节省 40%
3 月 10 日
字节跳动
开源 MoE 架构优化技术,提升大模型训练效率 1.7 倍,节省成本 40%,已在万卡集群训练中节省数百万 GPU 小时算力。
字节跳动豆包团队开源 MoE 架构优化技术:可将大模型训练效率提升 1.7 倍
快科技
字节跳动豆包团队开源 MoE 技术,大模型训练效率飙升 1.7 倍
ITBear 科技资讯
字节攻克 MoE 架构关键瓶颈,训练成本节省 40%
钛媒体
展开全部报道
话题追踪
2025-04-14
字节跳动最新思考模型技术细节公开,将于 4 月 17 日开放接口供用户体验
2025-03-10
字节开源 MoE 模型架构优化技术:效率提高 1.7 倍,训练成本节省 40%
2025-02-21
字节跳动大模型团队架构调整,多名负责人转向吴永辉汇报
2024-11-04
字节豆包大模型团队与香港大学发布并开源全新 RLHF 框架
专业版功能
登录
体验专业版特色功能,拓展更丰富、更全面的相关内容。
行业标签
处理器
订阅
开源软件
订阅
芯片与半导体
订阅
软件服务
订阅
科技
订阅
电子硬件
订阅
更多体验
前往小程序
24 小时
资讯推送
进群体验
科技新闻,每天 3 分钟