黑客在 HuggingFace 上传恶意 AI 模型,用「损坏」pickle 文件规避监测
2 月 10 日

网络安全研究人员在 HuggingFace 平台发现两个恶意机器学习模型,利用损坏的 pickle 文件技术规避安全检测。这些模型包含典型的平台特定反向 shell,连接到硬编码的 IP 地址。这些模型使用的是 PyTorch 格式,实质上是压缩的 pickle 文件,通过使用 7z 格式压缩避开 Hugging Face 的 Picklescan 工具的恶意检测。尽管存在反序列化错误,损坏的 pickle 文件仍然能够被部分反序列化,从而执行恶意代码。该问题已被修复,Picklescan 工具也更新了版本。

专业版功能专业版功能
登录
体验专业版特色功能,拓展更丰富、更全面的相关内容。

行业标签

二维码

更多体验

前往小程序

二维码

24 小时

资讯推送

进群体验

logo
科技新闻,每天 3 分钟