lisw05的个人博客分享 http://blog.sciencenet.cn/u/lisw05

博文

AI监管规则:各国为科技监管开辟了不同的道路

已有 891 次阅读 2023-11-17 09:32 |个人分类:人工智能(AI)|系统分类:观点评述

AI监管规则:各国为科技监管开辟了不同的道路

 

一份关于欧盟和美国如何控制AI的指南

 

 编译 李升伟  

  (特趣生物科技有限公司,广东深圳)

d41586-023-02491-y_25894592.webp.jpg 

插图:《自然》尼克·斯宾塞

  今年5月,科技公司OpenAI首席执行官萨姆·奥特曼Sam Altman在人工智能AI听证会上对美国参议员:“对人工智能的监管至关重要。许多技术专家和非专业人士都同意这一观点,而且围绕AI建立法律护栏的呼声正在高涨经过两年多的辩论,今年欧盟预计将通过第一部广泛的AI法律。中国已经制定了人工智能法规。

  但在实践中,人们仍然对哪些内容需要控制、人工智能的风险有多大以及哪些内容实际需要限制存在争议。尽管总部位于加州的 OpenAI 和其他公司公开呼吁加强监管,但这些公司仍然抵制欧盟提出的一些控制措施,并主张建立国际指导机构和自愿承诺,而不是制定新法律。与此同时,这项技术是一个不断变化的目标。

  柏林一家研究自动化对社会影响的非营利组织AlgorithmWatch的执行董事马蒂亚斯·斯皮尔坎普Matthias Spielkamp说,到目前为止,三个主要参与者——美国、欧盟和中国——迄今为止采取了不同的方法。欧盟是高度谨慎——其即将出台的《人工智能法案》侧重于禁止某些用途,并允许其他用途,同时为AI公司提供尽职调查。美国是许多领先人工智能公司的所在地,迄今为止是最不干涉的。 

  很多人都说这是人类有史以来最重要的创新,加州硅谷大型律师事务所 Wilson Sonsini 的首席创新官王大卫(David Wang表示。停止很容易,但说朝这个方向走却很难。

  从某种意义上说,我们正在见证一场盛大的监管实验。


欧盟:按风险监管


  今年6月,欧盟议会通过了《AI法案》——这是一项庞大的立法,将根据AI工具的潜在风险对其进行分类。尽管该法案可能会改变,因为它需要得到所有三个有投票权的欧盟机构——欧盟议会、欧盟委员会和欧盟理事会——的同意,但目前的草案将禁止使用产生不可接受风险的软件。《AI法案》将其定义为涵盖预测性警务、情识别和实时面部识别的大多数应用。

  人工智能软件的许多其他用途将被允许,但根据其风险有不同的要求。这包括指导社会福利和刑事司法决策的工具,以及帮助企业选择雇佣哪些潜在员工的工具。在这方面,欧盟法案要求开发者证明他们的系统是安全、有效、符合隐私、透明、对用户可解释非歧视的。

  对于高风险用途,包括执法和教育中的软件,该法案要求提供详细的文件,自动记录所有AI系统的使用,并对系统的准确性、安全性和公平性进行测试。

  违反规定的公司将被处以年度全球利润7%的罚款;该法案生效后,他们将有大约两年的时间来遵守,可能要到2025年才会生效。关于什么是高风险的问题仍然存在。去年,OpenAI向欧盟提交了一份白皮书,认为它的大型语言模型(LLMs,比如ChatGPT背后的模型)和图像生成模型不应该被考虑在这个类别中。这一建议反映在当前的法案中,该法案将基础模型(通用AI系统,而不是针对特定应用的AI系统)归为自己的类别。这包括生成式人工智能工具,可以自动生成逼真的文本、图像和视频。

  这里的风险与可能用于执法的AI分类系统的风险不同。例如,图像生成工具和大型语言模型可能导致有害内容的扩散,如复仇色情、恶意软件、骗局和错误信息,并可能最终破坏人们对社会的信任。这些工具应该要求什么样的透明度——以及是否有可能强制执行——是一个主要问题。由于这些系统是在大量人工生成的文本和艺术上进行训练的,因此侵犯版权也是一个悬而未决的问题。

  欧盟将要求基础模型的提供者汇编并发布一份用于其训练数据的受版权保护材料的摘要,并对其模型进行培训,以保护它们不产生违法内容。该法案目前的文本也要求在AI生成内容时进行披露,但这只适用于一种特殊的深度伪造内容,即未经同意将真人描述为做或说他们没有做的事情。


一个“好的开始”


  斯皮尔坎普说,欧盟的做法是过于强硬还是过于软弱,取决于你问的是谁。政策分析师丹尼尔·刘菲(Daniel Leufer)对此表示同意。我认为业界有很多人在咆哮,说它会扼杀所有的创新,他们永远无法遵守它,”在布鲁塞尔的Access Now工作的刘菲说,Access Now是一个捍卫数字版权的国际组织。但这是惯常的炫耀行为

  在柏林赫蒂学院研究AI及其监管的乔安娜·布赖森Joanna Bryson表示,她听到的公司对这些法律表示欢迎,因为合规不是一个沉重的负担,而且会改他们的产品。例如,微软的一位发言人指出,该公司的博客文章表明,它支持监管的必要性,包括欧盟的人工智能法案。

  斯皮尔坎普说,对欧盟方法的一个批评是,只要公司遵守与其应用程序风险类别相关的规则,他们就有强大的防御能力来抵御可能来自他们系统的损害责任。更重要的是,一家公司可能在另一家公司的工具上进行开发,而另一家公司又在第三家公司的工具上进行开发,因此不清楚谁将对造成的损害负责。

  英国纽卡斯尔大学专攻互联网法律的莉莲·爱德华兹(Lilian Edwards)说,《AI法案》在通过之前还会不断发展,警告说,目前不应该对它进行过度分析。但她认为这是一个良好的开端,有一些有用的技术细节,比如提到供商需要警惕数据“中毒”,即人们通过篡改训练数据来入侵AI系统。

  然而,爱德华兹更希望该法案通过一套标准而不是列出现有的用例来定义高风险AI,以便使立法能够面向未来

  欧盟已经有了适用于AI的法规。例如,自2018年以来,其《通用数据保护条例》(GDPR)立法对收集个人身份数据进行了限制。 通过GDPR,欧盟公民已经有权获得有关自动决策所涉及逻辑的“有意义的信息”(有时被称为解释权),以及选择退出的权利。然而,在实践中,这些权利目前的使用是有限的:只有少数过程是完全自动化的,比如广告的放置,迈克尔·伯特威斯尔Michael Birtwistle说,他在阿达·洛夫莱斯研究所Ada Lovelace Institute负责AI和数据方面的法律和政策事务,这是一家总部位于伦敦的研究技术伦理问题的研究机构。

  最后,对于推荐和内容审核AI算法,欧盟去年通过了《数字服务法案》Digital Services Act,旨在阻止危险内容在网上的传播。公司必须向用户解释它们的算法是如何工作的,并提供替代方案。该法案将于2024年2月正式实施,但包括谷歌、脸书、X(以前称为Twitter)和抖音在内的大型在线平台必须从8月底开始遵守。


美国:“活动的表象”


  与欧盟相比,美国没有广泛的、与AI相关的联邦法律,也没有重要的数据保护规则。2022年10月,白宫科技政策办公室(OSTP)确实发布了一份《AI权利法案蓝图》,这份白皮书描述了旨在指导AI使用的五项原则以及潜在的法规。这篇论文说,自动化系统应该是安全有效的、非歧视的、保护人们隐私的、透明的:当系统为他们做出决定时,人们应该得到通知,被告知系统是如何运作的,并能够选择退出或进行人工干预。

  从哲学上讲,(蓝图和欧盟的AI法案)在确定AI监管目标方面非常相似:确保系统安全有效、非歧视和透明,罗德岛州普罗维登斯布朗大学的计算机科学家苏雷什·文卡塔萨布拉马尼安(Suresh Venkatasubramanian)说。他在担任OSTP科学与司法助理主任时参与撰写了这份蓝图。他补充道,尽管美国在执行方面的想法与欧盟略有不同,但我得说,他们的共识远远多于分歧

       纽约州伊萨卡市康奈尔大学科技政策研究所所长萨拉•克雷普斯(Sarah Kreps)表示,当一个国家勾勒出自己的愿景时,这可能是有帮助的,“但蓝图和可实施的立法之间存在着巨大的差距”。

  美国也举行了与AI监管相关的国会听证会和总统会议。今年7月,亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI等七家美国公司会见了美国总统乔·拜登,并宣布他们将实施保障措施,比如测试他们的产品、报告局限性,以及研究可能有助于识别AI生成材料的水印。 然而,这些承诺含糊不清,无法执行。在当月的参议院听证会上,加州旧金山Anthropic公司负责人达里奥·阿莫代伊Dario Amodei呼吁美国立法,要求对AI模型进行审计和安全测试;他还表示,他最担心的是不良行为者滥用AI系统。位于西雅图的华盛顿大学科技政策实验室创始联合主任瑞安•卡罗Ryan Calo表示:“有一些活动的表象,但没有实质性和约束性的东西。”




d41586-023-02491-y_25867514.webp.jpg

  今年5月,加州科技公司OpenAI负责人萨姆·奥特曼(Sam Altman)出席美国参议院AI听证会。图片来源:盖蒂图片社

  去年10月,一项法律确实在国会获得通过它要求采购AI产品和服务的联邦机构官员接受AI工作原理的培训。今年月,拜登还签署了一项行政命令,简要地提到了防止和补救……算法歧视的要求——但同样,它只适用于联邦机构。

  文卡塔萨布拉马尼安说,这份蓝图非常详细,各机构和各州已经开始在他们的提案中实施其中的原则。例如,加利福尼亚州议会提出的一项法案(称为AB 331)将要求自动决策工具的部署者向该州注册其工具的目的,并解释如何使用它。

  他还敦促白宫根据蓝图和美国国家标准与技术研究院自愿发布的AI风险管理框架发布行政命令这将坚持要求使用AI的联邦机构遵守某些惯例,例如在使用AI系统时进行披露,并对其决策提供可理解的解释。

  联邦立法已经提出。例如,立法者此前曾考虑过一项针对算法问责制的法案,该法案将要求使用自动化的公司向联邦贸易委员会FTC提交影响评估。但这项法案没有通过,目前尚不清楚在目前政治分裂的情况下,该法案或其他法案能否在国会获得通过。

  由联邦机构执行的现有规则可以扩展到涵盖AI相关的产品。今年4月,美国卫生与公众服务部提议更新有关电子健康记录的规定,让患者能够了解影响预测模型的因素。 去年,美国消费者金融保护局澄清说,公司必须解释为要拒绝某人提供贷款,即使这个决定是由算法做出的。美国联邦贸易委员会还提醒企业,禁止在商业中或影响商业的不公平或欺诈行为或做法的消费者保护法同样适用于AI。今年7月,它对OpenAI的数据安全做法展开了调查,并要求该公司提供有关其大型语言模型对人做出虚假或有害陈述的任何投诉的细节。

       文卡塔萨布拉马尼安说,这是我们现在所处的一个充满挑战的领域,我们试图弄清楚我们可以用现有的监管做些什么他说,在某些情况下,新的联邦法规可能会有用。例如,法规可能需要在自动化系统中设置所需的透明度级别,或者指定如何在部署算法之前限制算法的偏差。

  美国一些州和城市已经制定了自己的AI相关规。在伊利诺伊州,2020年的一项法案要求公司宣布并解释使用AI来分析就业面试,该州长期以来一直有一项法律,允许公民起诉滥用生物识别数据,包括用于面部识别的扫描。(根据这一规定,脸书公司在2021年支付了6.5亿美元和解一起集体诉讼案。) 其他州禁止执法部门使用面部识别,还有一些州保护个人数据并限制基于这些数据的自动决策。在州一级,你最终会得到一些拼凑而成的规则,克雷普斯说。

  纽约康奈尔科技应用法律与技术研究实验室主任詹姆斯•格里梅尔曼(James Grimmelmann)表示,就生成式AI而言,有关版权的诉讼是目前美国最重要的图片库公司Getty Images起诉了Stability AI公司,因为该公司使用Getty的内容训练其图像生成软件Stable Diffusion。微软和OpenAI被匿名诉讼人起诉,原因是他们用人们的代码培训代码编写软件GitHub Copilot格里梅尔曼说,原告可能只希望获得版税,但如果胜诉,可能会看到版权问题被用来推动有关偏见、错误信息和隐私等问题的更广泛立法。

  文卡塔萨布拉马尼安说,一些公司反对该蓝图,认为该行业可以很容易地解决自我监管的问题。但其他公司告诉他,他们支持它是为了防止AI道德上的逐底竞争,在这种竞争中,公司为了竞争优势而相互削弱。今年5月,当奥特曼出席美国参议院委员会时,他建议为大型模型发放许可证。但他和其他人也明确指出,大公司引导监管机构制定的规则可能会给它们带来比小公司更大的优势。

       克雷普斯说,大型科技公司还没有在AI监管方面进行激烈斗争。我认为,目前还没有一种有意义的立法即将出台。

  律师们常说,美国人在技术前沿创新,而欧洲人在监管前沿创新,王说,“有些人说,欧洲在监管大型科技公司方面如此领先并非巧合,因为欧洲的超大规模科技公司较少”,因此游说较少。

全球不确定性

  其他一些国家已经明确了他们的AI监管目标。加拿大政府推出了一项AI和数据法案承诺要求对所谓的高影响力AI系统(这些系统尚未定义)采取透明、非歧视和安全措施。英国将于今年晚些时候主办AI安全峰会,并于3月份发表了一份白皮书,描述了一种支持创新的方法,其中没有计划制定新的法规。然而,欧盟的AI法案可能会影响全球的公司,就像《通用数据保护条例》(GDPR)影响了全球科技公司的运营方式一样。中国的一些AI规则可能会影响企业在其他地方的运营方式——尽管格里梅尔曼表示,企业可能会针对不同的市场修改它们的AI服务。

  各方还就潜在的国际协议进行了讨论。欧洲委员会(一个有别于欧盟理事会的人权组织)正在起草一份条约,以管理AI对人权的影响,但各国可能会选择不遵守其中的一些规则。 联合国秘书长安东尼奥·古特雷斯也建议,可能需要一个新的联合国机构来管理AI

  AI公司普遍表示,政府间协议将是必要的,但在需要达成什么协议以及如何执行方面却含糊其例如,今年7月,总部位于伦敦的谷歌深度思维(Google DeepMind)及其一些学术合作者提议成立一个全球高级AI治理组织(Advanced AI Governance Organization),该组织将制定标准并可能监督合规情况,尽管该公司对执法的提及有限。

  深度思维发言人表示,如果拟议的组织制定了国内治理准则那么政府将有责任“激励开发人员遵守标准。(她还指出,在制定新政策时,监管应侧重于可能造成身体伤害的AI应用,例如在医疗环境或能源网络中,而不是不加区分地应用于所有系统。) 微软曾表示,它支持制定国际自愿守则的各种努力,并辩称,原则护栏即使不具约束力,也会有所帮助。OpenAI拒绝就监管问题对《自然》发表评论,而是指出了有关其自愿努力的博客文章。


执行起来难吗?

  无论有关AI的规定是什么,各国可能会发现执行起来困难这尤其适用于可解释性规则,因为许多机器学习系统具有黑箱性质,它们在数据中找到自己的模式。对于那些做出分类决策的人来说,可以用一系列输入轰炸他们,看看不同的因素是如何影响算法的决定的。但是这些方法对大型语言模型比如ChatGPT来说并不适用。为此,政府可能需要利用审计手段,迫使企业在使用生成式AI时保持透明。尽管如此,文卡塔萨布拉马尼安认为,任何直接、积极的执法,即使是针对少数实体,都将开始让人们停下来思考一下

  审计不太可能针对非专业用途的生成式AI,因此,无论透明度法规如何到位,个人都可能在不被发现的情况下秘密使用大型语言模型

  一些AI开发者更担心长期风险,比如AI的反乌托邦脱离了人类控制或被不良行为者用来制造大范围破坏。他们提出了监管规定涵盖如何开发强大的AI模型。

  然而,今年3月由科技领袖签署的一封呼吁暂停开发强大人工智能6个月的信似乎收效甚微。旧金山研究和拨款基金会Open Philanthropy的高级项目官员卢克•米尔豪泽(Luke Muehlhauser)提出了其他想法,包括为大型AI模型颁发许可证在大型计算集群上远程操作终止开关以及建立害和损害报告系统该基金会资助了一项建立AI事件数据库的工作

  使用AI来引导武器也是一个令人担忧的问题,数十个国家呼吁联合国对致命的自主武器系统进行监管。(军事AI不在欧盟AI法案的范围内。)但美国尚未加入。在今年月联合国就此问题召开会议之前,该组织辩称,各国尚未就什么是自主武器达成一致,目前最好是制定不具法律约束力的指导方针。这是另一个例子,说明在AI监管方面的全球协调似乎不太可能,不同的社会对什么是必要的有着截然不同的看法。

 原文链接:Rules to keep AI in check: nations carve different paths for tech regulation  https://www.nature.com/articles/d41586-023-02491-y




https://m.sciencenet.cn/blog-2636671-1409974.html

上一篇:肿瘤学与比较肿瘤学:概念、现状与发展趋势
下一篇:神经内科:概念、现状与展望

2 宁利中 杨正瓴

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-18 14:20

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部