东方网记者解敏8月31日报道:随着人工智能的高速发展,数据作为人工智能技术开发和应用的基础,愈发显示出重要的作用。然而,在人工智能开发和应用过程中,越来越多的数据在人们的生活场景中被收集和利用,数据安全和隐私保护却面临着严峻挑战。
在日前由赛博研究院承办的2019世界人工智能安全高端对话上,《人工智能数据安全风险与治理》报告(以下简称《报告》)正式发布。《报告》提出了人工智能数据安全治理的总体框架,同时提出实现人工智能数据安全治理的四大目标,分别为实现数据生命周期安全;实现数据供应链安全;实现数据质量有效治理;不阻碍人工智能技术创新。
上海市经信委安全处处长刘山泉指出,由于人工智能相关技术发展处于早期阶段,且发展迅速。全球范围内无论是大型科技企业,还是初创企业,投入大量资源开展技术开发和应用研究,但甚少有企业关注其中的数据安全问题,除非出现了相关的数据泄露事件或隐私争议性事件。技术层面,虽然当前基于隐私的机器学习技术,以及针对各种恶意攻击的防御技术和数据保护技术都在快速发展,但仍不能解决全部问题。
目前人工智能领域的“安全危机”主要涉及数据质量、算法缺乏解释性、运算过程不可控、系统形态不可靠性等问题。由于人工智能是靠数据驱动的,数据的质量直接影响运算结果,恶意的数据篡改和被污染的数据都会使得结果发生偏差。此外,当机器产生的决策,与人类的决策产生严重分歧的时候,我们到底应该听谁的?这些都是亟需解决又易被忽视的问题。
刘山泉指出,人工智能中的数据安全治理是一个系统性工程,需要从法规、标准、技术等各个层面寻求应对策略,并需要监管方、政策制定者,人工智能开发商、制造商、服务提供商,以及网络安全企业协作,共同致力于解决数据安全的重大挑战。
目前,人工智能信息安全在法规层面普遍存在盲点。例如针对训练数据集的质量问题,当前国内外都缺乏相应的法规予以规范。此外,我国尚未推出《数据安全法》《个人信息保护法》等数据安全法规,而既有法规无法对人工智能中涉及的数据隐私问题予以全面、有效规制。
上海社科院互联网研究中心主任惠志斌呼吁,应尽快出台人工智能安全标准规范,引导数据、算法、技术应用等能有更好的保障。当前在全球范围内,无论是人工智能数据安全相关的通用标准,还是细分领域标准,都比较缺乏。中国人工智能发展与世界同步,应有这个能力与责任。希望未来3到5年内,中国率先将围绕人工智能各类应用的安全保障体系建立起来。