微比恩 > 信息聚合 > 英美等国联合企业发布《AI 系统开发指引》,号称“全球首份相关安全标准”

英美等国联合企业发布《AI 系统开发指引》,号称“全球首份相关安全标准”

2023-11-28 15:31:37来源: IT之家

IT之家 11 月 28 日消息,美国网络安全兼基础架构安全管理署(CISA)及英国国家网络安全中心(NCSC)日前正式发布《安全 AI 系统开发指引》(Guidelines for Secure AI System Development)白皮书。该白皮书号称“首份全球 AI 安全标准”,旨在从设计阶段强化 AI 系统的安全性,以防范可能的安全风险。据悉,这份指引是由包括美、英、德、法、日、韩、新加坡在内 18 国,并联合微软、谷歌、OpenAI、Anthropic、Scale AI 等 23 个网络安全组织参与制定。▲ 图源英国相关部门具体而言,指引包含 4 个主要部分:安全设计、安全开发、安全部署及安全运营(operation and maintenance),指引为每一个部分都提出可能的安全风险及避免方法,以协助开发人员从源头降低相关安全风险。▲ 图源英国相关部门IT之家注意到,该指引主要提供 AI 系统开发的必要建议,

关注公众号
标签: 安全 AI