科技巨头承诺安全开发 AI 模型:极端风险下会「自拔网线」
2024 年 5 月 22 日

在「人工智能(AI)首尔峰会」上,微软、亚马逊、OpenAI 等科技巨头达成了一项重要的国际协议,旨在确保 AI 的安全开发。该协议要求企业发布安全框架,识别并衡量潜在风险,如 AI 滥用和网络攻击等,并设立「紧急停止开关」以应对极端情况。英国首相苏纳克表示,这是全球领先 AI 公司首次在 AI 安全方面做出相同承诺,将确保透明度和问责制。《布莱奇利宣言》和即将到来的 AI 安全峰会也是推动全球 AI 安全监管的重要步骤。此外,欧盟已批准全球首部 AI 监管法规 ——《人工智能法案》,而英国则倾向于采取较为宽松的「轻触式」监管方式。明天的会议将进一步讨论 AI 安全性和可持续发展等合作方案。

专业版功能专业版功能
登录
体验专业版特色功能,拓展更丰富、更全面的相关内容。

行业标签

科技
icon订阅
物联网
icon订阅
二维码

更多体验

前往小程序

二维码

24 小时

资讯推送

进群体验

logo
科技新闻,每天 3 分钟