伴随着智能产业的蓬勃发展,各式各样的海量数据也在人们的生活中被大量收集、存储和利用。数据安全和隐私保护问题由此成为人工智能系统在开发和应用中面临的严峻挑战。
人脸识别、语音识别、智能算法推送……当前,人工智能(AI)技术加速融入社会生活,伴随着智能产业的蓬勃发展,各式各样的海量数据也在人们的生活中被大量收集、存储和利用。数据安全和隐私保护问题由此成为人工智能系统在开发和应用中面临的严峻挑战。
在享受人工智能带来高效和便利的同时,如何进一步扎紧守护个人隐私和公共数据安全的藩篱?在近日召开的第十一届吴文俊人工智能科学技术奖颁奖盛典暨2021中国人工智能产业年会上,多位专家学者就此展开了探讨。
人工智能数据安全挑战诸多
在中国工程院院士潘云鹤看来,数据、算力、算法和知识、运用、理论六个要素彼此依赖,共同构成了我国人工智能2.0发展的新生态。其中,数据的地位不言自明。
然而,在人工智能不断走入人们的工作和生活场景时,数据的采集、存储和应用也越来越面临诸多风险。“概括来说,数据安全问题体现在五个方面:可复制、易泄露、来源广、危害大、监管难,这是由数据的特性决定的。”中国电子科技集团第三十研究所研究员董贵山说。
在具体危害表现上,一方面,最常见的是对数据保密性的侵害,如在金融领域,通过网络窃取人工智能系统用户的交易账单、理财情况来了解其个人资产状况和基于在线行为的支付意愿,从而快速有效地定位金融诈骗的受害者和目标群体;或是通过各种网络漏洞,窃取大量用户的指纹、虹膜、面孔、身形等个人隐私信息数据用于犯罪;也有一些手机应用软件违法违规收集用户个人信息等用于商业目的。
另一方面也有对数据完整性和可用性的侵害,如通过技术手段对大数据进行窜改、造假和干扰,对投入应用的人工智能系统输入非真实的训练数据,以获得与目标背道而驰的结果。“利用所获取的数据,也可能出现更改、拼接、制作高度逼真的假视频或音频,用于视频、语音诈骗乃至扰乱社会治安稳定等情况,这一问题因此也越来越受到各国的高度关注。”北京师范大学互联网发展研究院院长助理、网络法治国际中心执行主任吴沈括说。
实际上,人工智能数据采集、存储、利用等方面所面临的威胁,不仅侵害公民的合法权益,更加不利于人工智能相关产业的发展。山东大学信息科学与工程学院教授刘治举例,如研发智能超声技术——运用机械手臂进行胸腔和腹腔的超声波扫描,需要为系统提供大量的人体超声扫描数据,但若训练数据中掺杂着许多非正常或不规范的样本,则最终的技术效果将大受影响,这也成为影响人工智能技术落地的一个关键因素。
安全立法监管进入快车道
在资源共享、信息互通的智能时代,扎紧安全的藩篱,法律无疑是红线。
“挑战之下,九游会看到,中国在人工智能数据治理领域已经形成了多层次、多维度的法律法规框架。”吴沈括介绍,近年来施行的民法典对肖像权、声音权、隐私权和虚拟财产保护等都给出了明确的规制,而数据安全法、网络安全法和个人信息保护法的陆续施行,表明了我国在数据安全立法方面已经进入了快车道,而《网络数据安全管理条例》也于今年被列入到国务院立法工作计划中。
然而,在专家看来,在法律规制方面,尚有一些亟待明确的问题。如数据的应用价值和伦理判断,刘治举例,在智能医疗的应用上常需要许多医疗数据,这些数据在所有权和使用权方面仍有许多不明确之处,亟须进一步进行确权,明确每一类数据的可利用范围,这样才能在法治监管下,让这些大数据最大限度地造福社会。
“相较于以前,对这些数据的应用价值和伦理判断评估,是不曾出现过的新要求,所以,不再是‘技术归技术、法律归法律’,而需要有一个价值综合评估的过程。”吴沈括说。
而在上海社科院互联网研究中心主任、研究员惠志斌看来,人工智能是面向未来的技术,需要在确保人类自身安全的情况下,让技术向前发展。其中既需要以人为本,也需要责任明晰,隐私保护、算法公正的问题不仅需要法律规制,也需要技术支撑,而这一切仍需各方努力,任重道远。
对此,中国电子科技集团有限公司科技委副主任卿昱介绍,“十四五”我国已启动了重点研发计划“网络空间安全治理”重点专项,围绕一系列安全挑战开展基础性研究。其中,在安全治理方面,针对网络空间存在的数据垄断、滥用和泄露等问题,重点突破重要数据的安全保障、个人数据的隐私保护和跨境数据流动的安全等核心技术,或将为上述问题提供重要的解决方案。
法律规制和标准设立亟待完善
“不可否认,人工智能的发展带来了一系列崭新的法律问题。”吴沈括建议,从长期来看,需要构建特定化、专门化的法律体系,甚至为人工智能立法。而从当下看,对于已经或可能出现的数据安全问题,一方面,可以通过梳理和分析我国现有的相关立法规范,修正现行规定或增加新的执法指南和司法解释将其纳入;另一方面,则可以通过构想和设计迫切需要的专门规则,从国际治理和国内治理两个角度,引入新的特别条款加以应对。
同时吴沈括认为,在进行法律规制时,介入产业领域也应恪守技术中立原则,对于安全风险未超过社会的相当性、控制度和容忍度的,不应扩大干预打压;立法应具有前瞻性,关注突出的潜在风险,探索适当的早期干预,如违法预备行为的识别与阻断;在立法、执法以及司法过程中必须注重实现各项法律规范体系性的相互衔接和适用延展性。
而在浙江省网络空间安全创新研究中心主任陈铁明看来,形成数据安全的标准也至关重要。“归根结底,要让人工智能的数据安全变得有秩序,要标准化,不仅需要给数据进行分类分级,也要有明确的机构对数据进行标准规范化,而随着技术又往前走,标准也要随着继续发展提升。”
董贵山则建议,在人工智能法规制度和数据标准的建设上,对于数据的有效流通、利用方面也要及时跟进。“有良好的数据生态和数据安全生态,才能孕育出强大的人工智能,同行业或者跨行业的数据流通和应用才能支撑更加复杂的人工智能训练和数据化转型的要求,由此促进人工智能和数字技术的发展。”
《光明日报》( 2022年07月30日 07版)