查看原文
其他

发布|中心发布《人工智能安全风险管理体系研究》报告



点击蓝字关注我们



9月3日,在2022年中国国际服务贸易交易会“世界人工智能融合发展与安全应用论坛”上,国家工业信息安全发展研究中心(以下简称中心)副主任李丽发布《人工智能安全风险管理体系研究》报告。

人工智能作为数字化转型的重要赋能技术之一,正在与工业、交通、金融、医疗等领域加速融合,应用范围不断拓展,行业渗透率快速提升。与此同时,人工智能在数据、算法、应用、攻防等方面存在一定安全风险,应用过程中已暴露出信息泄露、数据滥用、实施诈骗、自动驾驶事故等安全问题,给公共安全、道德伦理、社会治理等带来挑战。

为应对人工智能安全风险挑战,一些国家和地区加快推进管理政策出台,大力推动原则性规定向可操作、可落地方向迈进。欧盟、美国、新加坡、加拿大、日本等已从加强立法、出台治理原则、实施实践指南、研制评估清单等方面布局。我国正积极推动人工智能安全风险管理,但仍需进一步加强体系化建设,在引导人工智能健康发展的同时,积极推进安全评估与风险治理。

在此背景下,中心撰写了《人工智能安全风险管理体系研究》报告,在分析梳理人工智能面临的安全风险和国内外主要管理措施的基础上,提出我国人工智能安全风险管理体系构建的原则与思路,建议从规则引导、技术攻关、评估认证三大维度构建可落地的人工智能安全风险管理体系,提出从制度、组织、数据、算法、性能、安全六大维度建设人工智能安全风险管理框架。

下一步,我中心将在此基础上,依据人工智能融合发展应用领域的特色和实际情况,进一步深化框架,编制安全风险管理指南和评估规范,帮助人工智能算法提供方、应用方和监管方提升安全风险管理能力。欢迎人工智能企业、安全厂商及相关研究机构与我中心一道,共同开展人工智能安全风险管理研究及人工智能安全评估试点,共同构建我国人工智能安全生态!

联系人:张瑶 010-88685262 /王淼 010-68618290


投稿部门:人工智能所
文章作者:张瑶
关注我们



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存