人工智能监管难题:如何“用魔法打败魔法”
杭州网  发布时间:2023-07-02 08:52   

分歧远多于趋同

中国、美国、欧盟是全球AI发展的主要驱动力,但三者在AI立法方面也存在一些不同。

欧盟《人工智能法案》从用途、功能等角度将人工智能应用风险分为4个层级,无论草案经过几轮修改,“风险分级”仍然是欧盟治理AI的核心理念。

image.png

金字塔顶端对应对人类安全造成“不可接受”的风险。例如,根据人们的社会行为或个人特征对其进行分类的打分系统等,这些将被完全禁止使用。

在最新草案中,欧洲议会扩大了“不可接受的风险”清单,防止人工智能系统出现侵入性和歧视性。全面禁止公共空间生物识别、情感识别、预测性警务(基于侧写、地点或过去的犯罪行为),以及从网络随意抓取面部图像等六类人工智能系统。

第二类是对人类安全或基本权利产生负面影响的人工智能系统,会被视为“高风险”。例如,航空、汽车、医疗设备等产品中使用的AI系统,以及必须在欧盟数据库中注册的八个特定领域,涵盖关键基础设施、教育、培训、执法等。在符合人工智能规定和事先合格评定的情况下,各种“高风险”人工智能系统将获得授权,遵守一系列要求和义务才能进入欧盟市场。 

另外,影响选民和选举结果的人工智能系统,以及根据欧盟《数字服务法》,拥有超过4500万用户的社交媒体平台所使用的推荐系统也将被列入高风险名单,例如Facebook、Twitter和Instagram。

处在金字塔底部的是有限风险、风险很小或没有风险的人工智能系统。前者具有特定透明度义务,需要告知用户正在与AI系统互动,后者无强制性规定,基本上不受监管,如垃圾邮件过滤器等应用。

因有着严格的监管条款,《人工智能法案》被很多业内人士视为长了许多尖锐的“牙齿”。不过,该法案也试图在强监管和创新之间寻求平衡。

例如,最新草案要求成员国至少建立一个可供中小企业和初创企业免费使用的“监管沙盒”,在一个受监督和安全可控的场景中,对创新性人工智能系统在投入使用前进行测试,直到满足合规要求。欧盟普遍认为,该提议不仅可以让当局实时关注技术变化,也帮助AI企业减轻监管压力的同时能继续创新。

金玲在前述文章中称,欧盟的上游治理方法一方面要求企业承担更多的前置成本,另一方面也因为风险评估不确定性影响企业投资热情。因此,尽管委员会一再强调人工智能立法将支持欧洲数字经济的创新和增长,但现实的经济分析似乎并不认同这个结论。法案反映了欧盟在促进创新和权利保护之间难以有效平衡的内在冲突。

美国同欧盟、中国一样,都支持主要基于风险的人工智能监管方法,倡导准确、安全、透明度。不过,在赵精武看来,美国监管思路更注重利用AI,推动AI行业的创新和发展,最终是为了保持美国的领导地位和竞争力。

“不同于中国和欧盟秉持的‘风险预防和技术安全’监管理念,美国则侧重商业发展优先。中国和欧盟均侧重人工智能技术应用安全保障,避免人工智能技术滥用侵害个体权利,美国则是以产业发展作为监管重心。”赵精武说。

有研究发现,美国国会立法主要集中在鼓励和指导政府使用人工智能。例如,美国参议院曾于2021年推出一项人工智能创新法案,要求美国国防部实施一项试点计划,以确保其能够获得最佳的人工智能和机器学习软件能力。

查克·舒默在前述演讲中就将创新视为北极星,其AI框架就是要释放人工智能的巨大潜力,支持美国主导的人工智能技术创新。《人工智能应用监管指南》在开篇就明确应继续促进技术和创新的进步。《2020年国家人工智能倡议法案》最终目标也是要通过增加研究投入、建立劳动力系统等手段确保美国在全球AI技术领域保持领先地位。

彭晓燕表示,从指导性的规范设计角度来看,美国立法及制度层面上对人工智能发展尚且处在弱监管的态势,社会层面以开放的态度积极鼓励人工智能技术的创新与拓展。

与欧盟具有更加明确的调查权和全面的监管覆盖范围相比,美国采取了一种分散化的人工智能监管方式,部分州和机构以较小程度推进AI治理。这样导致的结果是,全国性的AI监管倡议都非常地宽泛和原则化。

例如,《蓝图》作为美国人工智能治理政策里程碑事件,制定了安全有效的系统、防止算法歧视、保护数据隐私、通知及说明、人类参与决策制定等五项基本原则,并无更加细致条款。

彭晓燕认为,《蓝图》未制定具体的实施措施,而是以原则性规定的方式搭建人工智能发展基本框架,旨在指导人工智能系统设计、使用及部署。

“像这类规范,不具有强制性,这是美国出于对人工智能产业扶持发展的考虑。目前,人工智能尚处于新兴发展阶段,高强度监管势必会一定程度上限制产业发展与创新,因而美国在立法上保持相对谦抑态度。”彭晓燕说。

“如果没有法律赋予各机构新的权力,它们就只能根据已有权力规范人工智能的使用。另一方面,对人工智能相关的道德原则保持较少规定,各机构可以自行决定如何监管,保留哪些使用权利。”卡内基分析师哈德里恩·普格(Hadrien Pouget)认为,这使得以白宫为首的联邦机构既受限制又自由。

以利用和创新为主导的AI治理理念,注定美国的“拳头”不会太硬。美国著名智库布鲁金斯学会研究员亚历克斯·恩格勒(Alex Engler)指出,对于教育、金融、就业等具有社会影响力的人工智能,欧盟和美国正采取不同的监管方法。

在对具体AI应用上,欧盟《人工智能法案》对聊天机器人有透明度要求,而在美国还没有联邦层面的规定。面部识别被欧盟视为“不可接受的风险”,美国则是通过美国国家标准与技术研究院(NIST)人脸识别供应商测试计划提供公共信息,但不强制制定规则。

“欧盟的监管范围不仅涵盖了更广泛的应用,而且为这些人工智能应用制定了更多规则。而美国的做法更狭隘地局限于调整当前的机构监管机构来尝试治理人工智能,人工智能的范围也有限得多。”亚历克斯·恩格勒说,尽管存在宽泛的相同原则,但在AI风险管理中,分歧远多于趋同。

赵精武总结中国、欧盟、美国的AI监管模式,发现中国以人工智能技术应用场景为限,专门针对人脸识别技术、深度合成、自动化推荐等应用场景制定专门监管规则。欧盟是以风险水平为导向,根据人工智能应用的风险水平是否属于可接受水平。美国则是在既有的传统法律制度框架判断人工智能技术应用的合法性。

此外,美国也将更多注意力集中在人工智能研究上面,为其投入更多资金。就在5月初,美国白宫宣布投资约1.4亿美元,建立七个新的国家级人工智能研究所。有研究者认为,美国此举是希望能更加了解AI,从而减轻监管过程中产生的担忧。

彭晓燕则表示,我国采取鼓励人工智能技术发展同时有限规范相关领域管理的措施,以调和的政策与管理要求引导人工智能技术发展。

来源:中国新闻周刊  作者:哈力克  编辑:管鹏伟
返回
杭州网·国家重点新闻网站