9 月 1 日,2022 世界人工智能大会在上海世博中心拉开帷幕。本届大会期间,如何进一步推动可信 AI 产业持续发展成为各方关注的话题。作为第三代人工智能领军企业,瑞莱智慧 RealAI 携自主研发的人工智能安全攻防创新成果与系列产品亮相本次大会,同时以 “风险、治理、实践” 三部曲,诠释如何实现人工智能高水平安全和高质量发展的良性互动。
技术双刃剑,人工智能暗藏风险隐患
(资料图)
在瑞莱智慧的展台上,一件 “隐身衣” 的展示吸引了大量观众驻足。正常情况下,目标对象只要站在摄像头前面,就会被实时的检测出来,但瑞莱智慧团队基于领先的对抗攻防技术开发了一款 “隐身衣”,通过在衣服上印刷特定的对抗图案,就能够使检测算法出错,普通人一旦穿上,该人员便可以逃避检测系统的追踪,实现 “隐身逃逸”。
“隐身衣” 展示图
究其原理,瑞莱智慧合伙人、高级副总裁朱萌在一场可信 AI 主题论坛上表示,这是由于当前以数据驱动的深度学习,其本质是利用 “黑箱” 处理方法寻找规律,存在不可解释、不可靠等结构性缺陷,将导致不可预知的恶意攻击,比如通过在输入数据中添加扰动,即可使系统作出错误判断。
除了 “隐身衣”,类似的攻防还可以延伸到更多识别场景:在自动驾驶场景中,通过修改锥桶的形状,就能让汽车感知模块失效,径直撞上去;通过;制作带有特制花纹的眼镜,刷开数十部商用手机的人脸解锁等。
在展台的另一侧,瑞莱智慧展示了一段将观众的脸 “换” 到恶搞舞蹈中的视频,同样引来很多观众围观。据工作人员介绍,深度合成技术的出现能够提升影视制作、广告营销等内容制作的效率和质量,也为虚拟主播等全新场景提供了技术可能。
但这项技术的滥用却带来了新的安全威胁,一方面通过 “AI 换脸” 技术进行色情视频生成、虚拟政治人物讲话等,可能对社会造成严重不良影响。另一方面,通过使用一系列软件可以低成本地合成带有各种动作的人脸视频,结合注入攻击手段后便可以轻易欺骗远程人脸识别系统,进而导致用户财产损失和隐私泄漏等安全事件的发生。
朱萌表示,从技术维度看,人工智能已经跨过了从 “不能用” 到 “可以用” 的技术拐点,但是距离 “用的好” 还面临诸多瓶颈性问题,尤其因技术局限或恶意应用导致的安全问题正日益突出。在 “信任危机” 的笼罩之下,“安全、可信” 已成为人工智能稳健发展的主要抓手,也将逐步成为行业规范化、技术商业化的关键助推器。
安全建设“三部曲”,消弭人工智能 “信任赤字”
围绕 “高水平安全赋能高质量发展” 目标,朱萌提出人工智能安全能力建设 “三部曲”,首先是,发掘现有 AI 安全风险、预判 AI 潜在风险;二是针对风险建设治理体系,包括建立 AI 治理理论、构建治理运转机制、探索技术实践路径等;三是在治理体系框架下,重点探寻伦理法规的技术落地方案。
瑞莱智慧 RealAI 合伙人、高级副总裁 朱萌
“人工智能当前的安全风险主要可以从 ‘系统’ 与 ‘人’ 两个视角来剖析。” 朱萌认为,系统层面来看,以深度学习算法为核心的人工智能系统十分脆弱,其结构性漏洞致使 “对抗样本攻击” 不可避免,而其数据依赖性则使其存在 “数据投毒” 漏洞,出现 “后门攻击”。从 “人” 的层面来评估 AI 的可信问题,主要风险来自人的滥用、恶意应用,最为典型的就是深度合成技术。它大幅降低了信息生成合成的难度,但其负向应用已产生实质危害,甚至存在 “武器化” 风险。
针对上述风险,瑞莱智慧于今年 6 月成立了人工智能治理研究院,探寻从伦理法规到技术落地的人工智能治理实践之路,主要开展四个方面工作:参与伦理规则建立、支撑立法工作、开展技术探索、建立从伦理法规到技术实践的映射模型。
落实到技术和产品实践中,瑞莱智慧搭建了系列安全可控新一代人工智能基础设施,包括人工智能安全平台 RealSafe,业内首个针对 AI 系统杀毒软件,提供模型安全性测评及安全加固的端到端解决方案;针对人脸识别系统的 AI 安全防火墙 RealGuard,可有效抵御对抗样本攻击、深度伪造攻击等新型攻击。用于快速、精准地对多种格式与质量的视频和图片进行真伪鉴别的深度伪造内容检测平台 DeepReal 等。
这一系列平台在数据可用、算法可靠、应用可控等方向上均有世界领先技术和独创功能,将从根本上增强人工智能的安全性、可靠性及可控性,目前已在政务、金融、工业互联网等高价值场景中发挥了重大作用,成为 AI 纵深赋能的坚实基座。最后朱萌表示,安全是第一准则,瑞莱智慧将持续构建安全、可靠、可控的人工智能基础设施,为 “可信 AI” 提供技术支撑,助力 AI 向 “善” 进化。
关键词: AI瑞莱智慧