随着人工智能(AI)在我们的日常生活和所有行业领域中逐渐站稳脚跟,为管控这一快速发展技术的风险,新的法律和指南正迅速出台。欧盟通过《欧盟人工智能法案》引领了制定全面AI监管的道路,为所有部门和行业设定了类似的监管标准——但伦敦布鲁内尔大学AI与法律学者阿斯雷斯·吉凯博士解释了为什么英国不应急于效仿欧盟,同时承认英国当前监管政策和轨迹存在缺陷。
《欧盟人工智能法案》存在问题
以部门为主导的AI监管优于欧盟的一刀切监管
英国当前采取的逐步建立AI监管的方法更为可取
英国关于AI监管的非法定五项原则并不足够
应设立一个具有强大法定权力的中央AI机构来协调跨部门AI监管的执行
在其发表于《国际法律与信息技术杂志》的新研究中,阿斯雷斯·吉凯博士在将英国逐步建立AI监管的方法与欧盟的完全方法进行比较的同时,对其进行了剖析。“欧盟通过《欧盟人工智能法案》采取了全面的监管方法,但英国倾向于以部门为主导的监管,并不认为一刀切的AI特定监管是合适的,”吉凯博士解释说。
与欧盟不同,英国政府尚未就AI监管制定任何法律,而是为独立部门监管机构提供了五项非法定原则,供其在权限范围内考虑并应用于AI系统。这些原则和其他原则已被纳入英国《人工智能监管法案》,但议会迄今为止尚未采取任何重大步骤。
“英国旨在根据证据制定回应特定部门特定需求的监管标准,而欧盟则为所有部门的AI开发、部署和治理设定了类似的监管标准,”吉凯博士解释说。“如欧盟所示实施全面的法律,会使议会修改法律变得极其困难,还可能威胁技术进步。”
《欧盟人工智能法案》将AI系统分为不可接受(禁止)、高风险和低风险类别,吉凯博士指出这是主要关注点。“该法案对高风险的分类有可能对AI系统进行过度监管或监管不足,并且它始终未考虑情境因素,这是有问题的。
“在仓库等受控环境中使用的配送机器人应被归类为低风险,但如果将其部署在城市区域,可能会增加事故风险并被视为高风险用例,”吉凯博士解释说。“由于《欧盟人工智能法案》将这种AI驱动的机器人视为高风险AI系统,因此无论其使用情境如何,都会对其施加类似的监管标准。”
由于欧盟高风险AI系统的封闭清单,吉凯博士认为,一些AI用例因未被视为高风险而对公众利益构成严重威胁。“移民和边境管理以及反洗钱中使用的AI系统目前不被视为高风险系统,尽管它们可能以基于种族、宗教或地域出身的方式歧视人们,”吉凯博士解释说。
这位AI与法律专家认为,《欧盟人工智能法案》倾向于对低风险AI系统应用过高的监管标准,同时让有风险的AI系统逃脱高风险监管范围,这为英国在AI监管方面采取缓慢态度提供了充分理由。
“如果英国采用基于风险的监管方法,则不应列出风险类别,而应通过监管机构和法官可应用于不同情境的可适应原则来定义,”他说。
布鲁内尔大学的这位学者认为,如果英国逐步建立AI监管的方法得到适当调整,将提供更务实的监管方法。“虽然现有的五项原则具有适应性,但通过提倡一种监管机构在不负法定职责的情况下实施原则的非法定框架,它将灵活性推向了极端,”他说。
“通过适当的以原则为驱动的风险分类系统、坚定承诺通过中央机构协调部门立法和执行,英国可以实施一种AI监管框架,更好地平衡鼓励创新和防范AI带来的潜在风险的需求。”
“英国渐进主义与欧盟全面人工智能监管中的风险、创新与适应性”,由阿斯雷斯·吉凯撰写,发表于《国际法律与信息技术杂志》。