在「人工智能(AI)首尔峰会」上,微软、亚马逊、OpenAI 等科技巨头达成了一项重要的国际协议,旨在确保 AI 的安全开发。该协议要求企业发布安全框架,识别并衡量潜在风险,如 AI 滥用和网络攻击等,并设立「紧急停止开关」以应对极端情况。英国首相苏纳克表示,这是全球领先 AI 公司首次在 AI 安全方面做出相同承诺,将确保透明度和问责制。《布莱奇利宣言》和即将到来的 AI 安全峰会也是推动全球 AI 安全监管的重要步骤。此外,欧盟已批准全球首部 AI 监管法规 ——《人工智能法案》,而英国则倾向于采取较为宽松的「轻触式」监管方式。明天的会议将进一步讨论 AI 安全性和可持续发展等合作方案。