苹果在 Hugging Face 平台上发布了一个名为 OpenELM 的开源语言模型,具有高效的训练和推理框架。该模型的源码、预训练权重和训练配方均可在苹果 Github 库中获取。OpenELM 使用分层缩放策略,提高了 Transformer 模型的准确率,并在公开数据集上提供了完整的训练和评估框架。此外,苹果还发布了将模型转换为 MLX 库的代码,以便在苹果设备上进行推理和微调。这一发布旨在加强开放研究社区,为未来的开放研究工作提供支持。
行业标签
更多体验
前往小程序
24 小时
资讯推送
进群体验