网络安全研究人员在 HuggingFace 平台发现两个恶意机器学习模型,利用损坏的 pickle 文件技术规避安全检测。这些模型包含典型的平台特定反向 shell,连接到硬编码的 IP 地址。这些模型使用的是 PyTorch 格式,实质上是压缩的 pickle 文件,通过使用 7z 格式压缩避开 Hugging Face 的 Picklescan 工具的恶意检测。尽管存在反序列化错误,损坏的 pickle 文件仍然能够被部分反序列化,从而执行恶意代码。该问题已被修复,Picklescan 工具也更新了版本。