当地时间26日,包括美国、英国在内的18个国家签署并公布《安全人工智能系统开发指南》(以下简称《指南》)。参与签署的国家一致同意,应约束人工智能(AI)公司在开发与部署时“确保客户及公众的数据安全,并免遭滥用”。
作为一份关于如何保护AI免受人工智能滥用等行为侵害的详细国际协议,《指南》由英国国家网络安全中心同美国网络安全和基础设施安全局与行业专家以及来自其他21个国际机构和部委合作制定。其他共同签署国包括加拿大、法国、德国、以色列、意大利、日本等。在这份长达20页的非约束性文件中,主要内容包含了监控AI系统的滥用、保护数据不被篡改,以及审查软件供货商等等一般性建议,并称其将敦促企业打造“从设计层面就注重安全”的人工智能(AI)系统。
英国国家网络安全中心27日在官网称,该国际协议将“帮助任何使用人工智能系统开发人员在开发过程每个阶段做出明智的网络安全决策”。
印度《经济时报》26日称,美国人工智能研究企业OpenAI的内部纷争再次引发全球对人工智能进行监管的呼吁。“短短几天内,硅谷发生一系列扣人心弦的事件已向政府和监管机构发出警告,应对AI行业进一步采取监管措施”。路透社认为,当前,人工智能的崛起已经引发一系列担忧,包括担心它可能被用来加剧欺诈、导致大量失业以及其他危害等。
据报道,美国网络安全和基础设施安全局局长伊斯特利称,本次《指南》签署的重要性在于“如此多国家都支持人工智能建设需要将安全放在第一位”。但路透社也表示,《指南》讨论了如何防止人工智能技术被黑客劫持的问题,并包括一些建议,例如只有在经过适当的安全测试后才发布模型。但“该协议并没有解决如何使用AI的棘手问题,也未提到这些模型应如何收集数据”。IT行业媒体cnBeta也发表评论称,《指南》对人工智能领域的某些争议问题未提及,包括对图像生成模型的使用、深度伪造、不恰当的数据收集方法,以及在训练模型中的使用应采取哪些可能的控制措施等。而在这些问题上,多家人工智能公司曾遭到起诉。
(来源:环球网)