美欧英签署全球第一份有法律约束力AI国际条约——合作还是屏障?

互联一起摇摆叭 2024-09-10 20:20:46
2024年9月5日,美国、欧盟和英国签署了一份名为《欧洲委员会人工智能、人权、民主和法治框架公约》(以下简称《人工智能框架公约》)的文件,该公约是历史上第一份具有法律约束力的人工智能国际条约,旨在确保人工智能系统的使用完全符合“人权、民主和法治”。 《人工智能框架公约》由人工智能委员会(CAI,由欧洲委员会主持成立)牵头起草,经过两年的起草和谈判,于2024年5月17日经过57个国家的代表讨论后通过。当时该条约就被誉为一项值得称赞的多边成就,可以弥合日益扩大的全球数字鸿沟,而且在各国接受度颇高。正式开放签署后,除了欧盟、美国和英国之外,安道尔、格鲁吉亚、冰岛、挪威、摩尔多瓦、圣马力诺和以色列等多个国家也签署了该条约。同时,此前阿根廷、澳大利亚、日本和墨西哥等几个非成员国也参与了起草该条约,预计将很快签署。 这意味着,这项公约覆盖了全球一些最大AI公司总部所在地和正在建立大规模AI业务的国家。但需要注意的是,中国和新加坡等亚洲国家、俄罗斯和中东均未被列入。 那么,我们应该怎么理解《人工智能框架公约》呢?具有法律约束力,能否代表围绕人工智能的合作价值得到了更广泛的理解?其中达成的共识以及签署和未签署的国家名单,是否会加剧围绕人工智能的地缘政治分歧? 一、价值观和原则的共识该公约列出了多项关键的人工智能原则,供签署国实施。其核心问题是,在促进人工智能技术应用的同时,如何保护根本公共利益。总结下来其重点关注点如下: 1、人权保护:该条约确保人工智能技术的发展能够保护基本人权,并解决偏见算法和非法数据监控等风险。 2、民主诚信:该条约强调确保人工智能不被用来传播虚假信息或破坏选举制度,以维护民主进程。 3、数据隐私和安全:参与的国家寻求建立共同标准来保护敏感数据并防止人工智能系统违反隐私法规,特别是在欧盟的 GDPR 等法规的约束下。 4、透明度和问责制:人工智能系统必须透明且可控,并明确披露其运作方式。这确保一旦发生损害,问责机制到位。 5、道德与治理:该条约为人工智能的道德部署设定了界限,包括军事、执法和医疗保健应用。它优先考虑所有人工智能驱动系统中的人为监督。 这些原则无疑是多利益相关方进程的体现,提供了一种平衡可行的监管价值观和方法,其核心主题与其他全球实体就安全和负责任地使用人工智能提出的许多原则是一致的。 需要注意的是,《人工智能框架公约》为各国政治意愿及差异化治理手段留出了较大空间。上述原则并不适用于保护国家安全利益或与国防事务相关的人工智能开发,也不适用于尚未投入使用的人工智能系统的研发活动。此外,其采用的“基于风险的方法原则”虽然与欧盟《人工智能法》中的义务有相似之处,但并没有对风险采取分层方法(从有限风险到高风险),因此它没有规定禁止或禁用人工智能系统的背景或用例,而是将此自由裁量权留给每个缔约国。 二、“法律约束力”有多强?《人工智能框架公约》缔约国必须采取适当的立法和行政措施,在其国内法中落实本文书的规定。它将“在五个签署国(包括至少三个欧洲委员会成员国)批准之日起三个月后的下个月第一天”正式生效。通过这种方式,《人工智能框架公约》有可能影响正在进行的国家和地区设计和通过具有约束力的人工智能法律的努力。 对于欧盟来说,《人工智能法》也声称保护基本权利、民主和法治等价值观,不过,它主要通过将这些价值观附加到“产品安全条款”中来实现——要求供应商解决的主要是健康和安全风险。从意图来说,欧盟在谈判中的立场应该是将《人工智能框架公约》塑造成一种包含《人工智能法案》核心要素的方法。但有专家评估,通过产品安全方法监管人工智能的副作用,可能会减损欧盟对基本权利、民主和法治的保护。 英国在签约中表现的最为积极。英国司法部在签署条约的声明中指出,一旦该条约在英国获得批准并生效,现有的法律和措施将得到加强。英国科学、创新和技术部长彼得•凯尔强调了该条约在建立“超越单个领土的基线”方面的重要性。英国《网络安全法》的某些方面将更好地应对人工智能使用有偏见的数据并产生不公平结果的风险,而正在计划中的人工智能立法很可能会受到《人工智能框架公约》的影响。 对美国来说,情况则稍显复杂。一方面,除非得到美国参议院的批准,否则《人工智能框架公约》对美国就不真正具有法律约束力;另一方面,美国大型科技公司的游说以及各州(比如加州)的立法,才是影响美国联邦立法最主要的因素。 此外,从整体来说,《人工智能框架公约》如前所述,为了在更广泛的国家中获得认可,将其原则进行了“限制”和“淡化”,某种程度上减损了其法律确定性和有效可执行性。即便在各国予以执行,《金融时报》表示,“这是一种相对较弱的执行形式。” 因此,《人工智能框架公约》最终能否实现其目标,完全取决于签署方在国内是否能够坚持和执行其原则的承诺。 三、“合作”抑或“屏障”?人工智能政策、安全和发展网络的迅速扩张,也带来了人工智能领域前所未有的国际合作水平。正如联合国在其“人工智能高级咨询机构”(UNAB)的报告草案中所说,“关于治理的文件和对话并不缺乏”。 2023年10月,中国在第三届“一带一路”国际合作高峰论坛提出了《全球人工智能治理倡议》,同期英国召开的人工智能安全峰会和随后举行的首尔峰会催生了英国、美国、韩国、加拿大、日本和法国等国的“安全研究所”,以开发新兴人工智能模型的测试和监控;2024 年 5月2日,由53个国家组成的“广岛进程之友小组”也批准了该准则和原则。除了这些不同的政府间论坛之外,一些国际标准制定组织,特别是IEEE 标准协会和国际标准组织,已经通过了许多人工智能技术标准。 根据欧盟委员会近期统计,全球目前大约有450 项人工智能治理举措,不仅有来自国际机构,还来自民间社会组织、企业和学术界。 《人工智能框架公约》特别之处在于,它是目前唯一一份具有法律约束力的国际条约。从象征意义上,这是全球监管人工智能技术努力的重要里程碑。因为对于大多数国家而言,利用人工智能的优势以提高生产力、确保不落于人后,要比主导人工智能政策的安全和道德问题更为重要。联合国大会于2024年3月和7月通过的关于人工智能的决议,也都将发展使命列为首要任务。《人工智能框架公约》将人类的尊严和自主作为基本权益,以法律的形式予以确认,的确是一项值得肯定的成就。 另外,从实践的意义上,《人工智能框架公约》可能在价值观相近的国家之间,促进互操作性方面具有独特的优势。人工智能的发展领域还远未成熟,相较于自上而下的“全球治理”,自下而上的“全球合作”——围绕人工智能的合作价值和合作水平——的提高才是目前阶段应当关注的重点。 然而,我们完全也有理由担心,《人工智能框架公约》签署国之间的合作,或许会进一步加剧国家之间、国家集团之间的数字鸿沟和地缘政治风险。如果未来这些签约国在制定本国人工智能法律或政策时,将此一“共识”作为其他国家AI产品进入本国的屏障,甚至是贸易武器,那么这就跟人工智能国际合作的愿景本身背道而驰。
0 阅读:9