伴随着人工智能应用的常态化,人工智能安全问题的研讨也持续开展。
1、网络安全基本属性,即人工智能系统及其相关数据的机密性、完 整性、可用性以及系统对恶意攻击的抵御能力之外,讨论人工智能安全一 般还需要考虑以下属性。
2、透明性: 指人工智能在设计、训练、测试、部署过程中保持可 见、可控的特性,只有具备了透明性,用户才能够在必要时获取模型有关 信息,包括模型结构、参数、输入输出等,方可进一步实现人工智能开发过程的可审计以及可追溯。
3、可解释性: 描述了人工智能算法模型可被人理解其运行逻辑的特性。具备可解释性的人工智能,其计算过程中使用的数据、算法、参数和 逻辑等对输出结果的影响能够被人类理解,使人工智能更易于被人类管 控、更容易被社会接受。
4、公平性: 指人工智能模型在进行决策时, 不偏向某个特定的个体 或群体,也不歧视某个特定的个体或群体,平等对待不同性别、不同种 族、不同文化背景的人群,保证处理结果的公正、中立,不引入偏见和歧 视因素。
5、隐私性: 指人工智能在开发与运行的过程中实现了保护隐私的特 性,包括对个人信息和个人隐私的保护、对商业秘密的保护等。隐私性旨 在保障个人和组织的合法隐私权益,常见的隐私增强方案包括最小化数据 处理范围、个人信息匿名化处理、数据加密和访问控制等。
6、可靠性: 指人工智能及其所在系统在承受不利环境或意外变化 时,例如数据变化、噪声、干扰等因素,仍能按照既定的目标运行、保持 结果有效的特性。可靠性通常需要综合考虑系统的容错性、恢复性、健壮 性等多个方面。
人工智能与实体经济融合发展,推动了相关产品服务的新一轮变革;人工智能作为助手融入新领域,极大丰富了人们的数字生活
模型规模增长产生了接近人类的高级能力,通用人工智能或将到来;有人类参与的指令微调技术是近年来人工智能的另一 大技术特点
用户数据用于训练,放大隐私信息泄露风险;算法模型日趋复杂,可解释性目标难实现;可靠性问题仍然制约人工智能关键领域应用
针对利用人工智能算法从事传播违法和不良信息,侵害用户权益,操纵社会舆论等问题,加强安全管理,推进算法推荐技术和深度合成技术依法合理有效利用
日本政府发布了《人工智能战略2022 》旨在推动人工 智能克服自身社会问题、提高产业竞争力,提出以人为本、多样性、 可持续三项原则
新加坡资讯通信媒体发展局和个人数据保护委员会共同发布人工智能安全治理评估框架和工具包A .I .VERIFY,结合人工智能系统的技术评估和程序检查
俄联邦政府批准《至2024年人工智能和机器人技术监管构 想》为人工 智能和机器人技术的安全应用和法律监管提供指导
欧盟专门立法,试图对人工智能进行整体监管,针对可能对个人基本 权利和安全产生重大影响的人工智能系统建立全面的风险预防体系
美国监管要求少,主要强调安全原则,指导政府部门 与私营企业合作探索人工智能监管规则,并为人工智能实践者提供自愿适 用的风险管理工具
拟议法案《人工智能与数据法》敦促各公司在开发和部署人工智 能系统时以减轻伤害和偏见风险为前提,进而维护加拿大民众的权益
英 国将如何巩固网络强国地位,保障网络安全,提升网络空间行动能力,明确了英国将积极引领人工智能等七项优先技术领域的安全发展
20211000-T-469; 20230249-T-469; 20221791-T-469 ;T/CESA 1193-2022
GB/T38542-2020,GB/T38671-2020,GB/T40660-2021,GB/T41819-2022,GB/T41807-2022,GB/T41806-2022,GB/T41773-2022,GB/T41871-202220230253-T-469
梳理了人工智能技术与应用发展现状,分析了人工智能面临的新的安全风险,结合国内外人工智能安全政策与标准现状,指出了人工智能安全标准需求