币圈活动网

作者:曹建峰,腾讯研究院高档研究员

人工智能事端的职责 是AI年代的中心问题

深度学习的“黄金十年”之后,AI年代已然到来,AI体系已然成为21世纪最明显、最重要的技能物之一,不断催生出各种新的智能产品、服务和运用,诸如Robotaxi、AI陪伴运用、人形机器人等。并且,在规划规律(scaling law)的引领下,以大模型为代表的AI技能仍在加快开展,甚至引发了“AI加快主义 VS AI价值对齐”的开展理念分歧。AI范畴的知名专家学者纷纷预言AGI的到来时刻,想象未来十多年的变革与影响。这场AI革命将带来什么样的改动和影响,也许是人们现在还无法全面预估的,但咱们至少不应轻视AI技能的长时间影响。

现在看,AI技能的开展和运用,不只让各种产品正日益成为具有自主智能的产品,并且让人们从互联网年代加快进入以算法、机器人和AI智能体(AI agent)作出经济和社会决议计划为中心特征的AI社会或者说算法社会(algorithmic society),算法由此成为支撑网络化、数字化、智能化开展的中心技能要素。这可以带来安全和功率的明显提高,但无法保证消除所有的事端和危险。没有绝对安全的技能,技能在削减、消除某些方面的危险的一起,却或许在其他一些方面制作新的危险。近年来,给他人权益形成危害的AI事端快速添加,从自动驾驶汽车和有形机器人的安全事端到AI治疗软件的错误诊断再到各种自动化决议计划体系的算法轻视、不公正决议计划,可以说,AI事端和AI侵权正日益成为AI社会的“新常态”。依据OCED对全球范围内的AI事端的监测,2014年1月以来全球AI事端快速添加,截至2023年12月总数已达7195起。例如,2024年10月以来,AI聊天机器人平台Character AI面对导致美国青少年自杀等争议,已成为至少两申述讼的被告,原告主张character AI存在设计缺点,归于缺点产品,要求其开发者承当产品职责。

在人工智能的运用无处不在的今日,人们有必要正视AI事端和AI侵权的法令职责问题。当AI体系形成事端和危害,法令有必要给受害人供给公正且有用的救济。但问题是,谁应为AI事端和AI侵权担任?高度自主的AI体系或许在没有直接的人类操控、干涉或监督下独立采纳行动或作出决议计划。这意味着,在人工智能语境下,由于相关的行为和决议计划从人类转向智能体系,事端和危害也开始从由人类和人类行为形成转向由AI体系及其行为形成。这种转变给法令职责的分配和承当提出了应战。相关应战不只在于辨认职责主体的困难,并且在于AI体系的自主性、不行解释性、不行预测性等许多特征给证明过错/缺点、因果关系等职责构成要件带来的困难,更在于AI侵权的职责承当方法的难题(例如,如何针对AI体系采纳行为禁令、关停等赏罚办法)。

AI侵权职责的三种新计划 真的可行吗?

为此,有人提议针对AI侵权树立全新的职责准则,大致包含三种计划。

一是品格计划,简略来说便是赋予AI体系法令主体位置,然后AI体系可以对自己的行为直接承当法令职责。将自主的、杂乱的AI体系视为独立的法令主体,然后将侵权职责从人类转嫁给人工智能,是一个很有引诱的想法。欧盟立法者曾提议为自主机器人创设“电子人”的特别法令位置,但终究否决了这一想法。一些学者提出可以赋予AI体系相似于有限职责公司(LLC)的法人位置,以解决职责承当的难题。人们想象,就像大模型或许让“1人公司”成为实际相同,未来人工智能的开展也或许让“0人公司”成为实际,即具有自主行动才能的AI体系(agentic AI)就可以独立运营一家公司,而不需求任何的人类雇员。

二是代替职责、依据高危险的无过错职责等新式职责计划,依据一种理论,尤其是在代替型人工智能的情况下,假如企业运用AI体系来代替人类雇员,就应对所谓的“AI雇员”的行为承当代替职责,由于这契合功用等效准则(functional equivalence)。跟着大模型的才能的持续增强,可以神往,未来人们不只或许会有可以真正代替自己行事的个人AI助理,并且或许会和所谓的“AI同事”一起工作和协作。因此,让经营者对“AI雇员”的行为承当代替职责,好像合情合理。另一种思路是,立足于依据危险的AI监管路径,让供给者、所有人、运用者等主体对高危险AI体系形成的危害承当无过错职责。例如,欧盟人工智能法案的中心思路便是,依据AI危险类型化,要点对高危险的AI体系采纳安全监管,并制止具有不行承受危险的AI体系。

三是稳妥计划,关于彻底自主的AI体系形成的危害,可以考虑用社会稳妥、补偿基金等依据稳妥的无过错补偿机制彻底代替现有的侵权职责准则,由于绕开侵权法将防止将现有职责规矩适用于人工智能所面对的许多困难。在曩昔,无过错补偿机制彻底代替侵权危害补偿的例子并不罕见,工伤、交通事端、医疗损伤、疫苗危害等范畴存在相似的做法。

AI侵权职责准则的构建 需求走出几个误区

但是,这些关于AI侵权职责的新计划过于激进、难以保证安全与自由的平衡,不只不契合咱们依然处于AI革命的开展早期和弱人工智能年代的社会实际,并且是依据几个需求防止的归责误区。

误区1:针对人工智能本身进行归责。

针对AI体系本身进行归责,意味着将AI体系视为法令主体。但是,在现阶段,人工智能的法令品格在道德上是不必要的,在法令上是自找麻烦的。支撑AI法令品格的大部分观点既过于简略又过于杂乱,过于简略是由于人工智能存在于一个界限含糊的范围内,现在还不存在可以被承以为法令主体的有意义的类别;过于杂乱是由于许多观点是“机器人错误”(比如以为机器人就像人类相同)的变体,依据对人工智能未来开展的似是而非的假设。现在看,颁发AI体系法令品格并非解决它们“行为”职责的“灵丹妙药”,反而或许翻开“潘多拉魔盒”,引发了一系列新的法令和伦理问题,尤其是,AI法令品格将很简单导致滥用,成为一种防止和搬运法令职责和职责的机制。换句话说,AI法令品格或许是一种“法令黑洞”,一个吸走人类行为者法令职责,从中却看不到任何问责迹象的实体。总归,人工智能作为人本身的一种活动,即便再杂乱、再智能、再先进,也仅仅服务于人类、完成人类意图的东西,充沛显示着作为法令客体、促进人类福祉的需求。在根本上,咱们需求开展东西型AI(tool AI),而非所谓的全面挨近人类的主体性AI。

误区2:将公法上AI危险类型化理念和AI侵权职责规矩勾连。

全球人工智能监管的一个首要思路是采纳“依据危险规制”,对具有不同危险程度的AI体系采纳差异化监管。欧盟人工智能法案是这种思路的典型代表,其按照危险凹凸,将AI体系分为不行承受危险AI、高危险AI、有限危险AI以及最小危险AI等四大类,并要点规矩了高危险AI的要求和相关经营者(供给者、布置者等)的职责等。其间,高危险AI的判别规范是,AI体系对自然人的健康、安全、基本权利等构成明显的危害危险。在这种规制思路下,人们倾向于将AI体系的危险程度和归责准则相挂钩,比如将高危险AI和无过错职责相挂钩,而将低危险AI或非高危险AI和过错职责或过错推定职责相挂钩。欧盟立法者此前提出的“人工智能操作职责条例草稿”便是这种归责思路的典型代表。但是,将公法规制框架下依据危险的AI类型化一刀切地衔接、匹配到不同的职责规矩并不合理,实际上是一种错置。首要原因在于,高危险AI和传统无过错职责理论所针对的具有异常危险的物体或活动之间并不能简略画上等号;相反,人工智能的引入或许改动人们对危险范畴的认知,所谓的高危险AI实际上或许比人类操控、操作的相似物体或活动更加安全。换句话说,所谓的高危险AI其实旨在削减危险,添加安全性,实际上比其所代替的人类活动要更加安全。

误区3:对AI体系的“行为”进行过错点评。

当AI体系引发事端、形成危害时,如何对AI体系的“行为”或体现进行点评,是一个关键的问题。有人提出将过错职责准则适用于AI体系本身,具体来说,类比用于判别人类行为人是否具有过错的“理性人”规范,可以选用“理性机器人”规范来判别AI体系是否存在所谓的“过错”,以此约束相关主体对AI体系的职责。例如,此前在美国,在Nilsson v. Gen. Motors LLC案中,原告申述美国自动驾驶汽车公司Cruise,但没有提出产品职责索赔,而是选择了依据过错的理论:这位摩托车主宣称Cruise的自动驾驶汽车以如此疏忽的方法行驶,进入了相邻的车道并将他撞倒,而没有考虑到过往的车辆。这或许是历史上第一次一个机器人被正式指控本身存在过错操作——这一侵权指控曾经是专门针对人类行为人的。但是,这种归责思路在任何时候都应当被拒绝,即便现代侵权法对过错的认定现已趋于客观化,但过错的概念始终指向人类行为人的行为,和人的主体性相挂钩,将过错规范适用于AI体系的“行为”或体现是不切实际的。可以预见,跟着AI体系的自主性的增强,未来在许多人工智能事端中,法院需求从点评运用者(如驾驶员)的行为更多转变为点评AI体系(如自动驾驶体系)的行为,而关于AI体系的“行为”或体现,应从产品缺点的视点而不是从过错的视点来进行点评。这要求咱们及时更新面向工业年代的传统产品的产品职责准则。

误区4:依据功用等效准则对布置、操作AI体系的主体进行代替问责。

功用等效准则(Functional Equivalence)以为,假如AI体系等自主技能的运用在功用上相当于雇佣人类辅佐人员,并由此形成了危害,那么运营者(operators)布置、运用该技能的职责应当与委托人(Principal)对其人类辅佐人员(Human Auxiliary)的既有代替职责机制相对应,也即AI体系的运营者对AI体系形成的危害承当代替职责。但是,这种思路是自找麻烦的,依据功用等效的职责类推乍看起来好像很合理,但实际上却不具有可行性。并且功用等效理论仅仅在表面上注重了技能的代替效应,却没有洞悉这种技能现象背面的实在危险制作与操控。例如,在人工智能之前的年代,工厂使用自动化设备代替工人,假如自动化设备呈现毛病并形成危害,受害人会考虑追查自动化设备的生产者的产品职责,而不是让工厂对自动化设备承当代替职责。尽管AI体系的危险状况或许不尽相同,但其只不过是比传统的自动化设备更高档、更智能的东西而已,这意味着,人们需求拨开功用等效的迷雾,调查哪些主体(一般即东西的供给者和运用者)制作或操控哪些危险。由于终究人们仅仅期望有人可以对AI体系形成的危害承当职责,而不是期望像追查人类行为人的职责那样追查AI体系的职责。

AI年代的侵权职责准则 路在何方?

尽管人工智能给现行侵权职责准则的有用适用提出了应战,但这并不意味着咱们需求重整旗鼓,采纳全新的职责计划。相反,在现阶段,经过对过错职责、产品职责等既有侵权职责规矩作出必要的调整,咱们就可以让侵权职责准则习惯AI年代的开展需求,并在安全与立异之间完成平衡。

其一,坚持人工智能的法令客体位置,在AI事端和AI侵权中遵循人的职责。从技能实际出发,现在的AI体系,无论多么先进和智能,总是需求有人开发它,并将它投入运用。具体来说,尽管AI价值链纷繁杂乱,但咱们可以相对清晰地区分出供给者阵营(provider camp)和运用者阵营(user camp)这两个群体。这种区分在法令上是有意义的,由于在每个群体内部(比如生产者和供货商之间、所有人和运用者之间),职责都可以相对简单地经过合同东西分配给其间一个成员或者在几个成员之间分管。例如,欧盟人工智能法案区分了AI供给者和AI运用者(deployer of AI system),并要点针对这两类主体施加了相关的职责和职责。因此,为了侵权职责意图,树立AI供给者和AI运用者的辨认、确认规范,是必要且重要的。

其二,为AI年代改造产品职责准则尽管在人工智能运用的许多具体运用场景中,运用者仍需履行必定的留意职责(诸如按照预期用途运用、保证数据质量、监测、维护等),对人工智能运用中其可以操控的那些方面承当职责,但长时间来看,运用者的留意职责将会缩小,这意味着运用者的职责也或许会相应缩小。在AI所有人、运用者的人物和操控力持续削弱的趋势下,未来人工智能供给者的职责将或许进入侵权职责法的中心舞台。而AI体系作为一种新式的“智能”产品,呼吁对既有的产品职责准则作出必要的改造,包含产品概念、生产者界定、缺点、可补偿危害、因果关系、举证职责等方面。例如,在人工智能监管方面,欧盟立法者在拟定全球首部全面性的人工智能法案的一起,对1985年出台的欧盟产品职责指令进行了全面的修订,旨在为数字年代和AI年代树立全新的产品职责准则。与此一起,欧盟立法者仍在酝酿“AI职责指令”(AI Liability Directive),旨在针对AI运用者的职责树立更清晰、更可操作的规矩。

其三,稳妥应作为AI职责框架的有益弥补机制,而非代替性机制。稳妥作为危险管理东西,在促进新技能安全融入社会方面发挥着不容忽视的重要作用,比如经过供给财务保证鼓励立异并保证新技能的安全实施。经过适当的调整和监管干涉,稳妥可以持续支撑技能立异,并为社会供给必要的保证。现有的稳妥准则可以被用来监管AI体系,但无需拟定专门的或全面性的人工智能稳妥方针。一起应当慎重针对人工智能运用出台强制性的稳妥方针,以免适得其反地阻碍可以带来明显经济和社会效益的AI技能的推广普及。

其四,AI侵权职责准则之外,需求注重并活跃应对前沿AI的安全危险。在人工智能管理方面,AI侵权职责规矩是必要的,但其作用是有限度的,尽管可以有用应对AI体系或许给人们的人身、财产权益形成的危害危险,但关于超级智能等前沿AI(frontier AI)或许带来的极点危险或灾难性危险,AI侵权职责规矩难以起到实质性作用。在AI加快开展趋势下,超级智能(superintelligence)现已呼之欲出,其潜在安全危险日益得到各国政府、研究界、业界的活跃注重和注重。国外AI专家指出,长时间来看,大多数人都轻视了超级智能的安全危险或许有多严重。因此,活跃倡议、开展、构建福祉型人工智能(wellbeing AI),使用人工智能最大化个人的、社会的以及环境的福祉,将包含AI价值对齐在内的人机对齐理念融入超级智能的开展,就显得尤为重要。

文章内容仅为学术探讨,不代表所在单位之观点

[1] 郑志峰:《人工智能产品职责的立法更新》,载《法令科学(西北政法大学学报)》2024年第4期

[2] 曹建峰:《大模型布景下的人机对齐》,载《中国社会科学报》

https://www.cssn.cn/skgz/bwyc/202410/t20241029_5797216.shtml

[3] https://www.youtube.com/watch?v=559VdVIz5V4

[4] https://eur-lex.europa.eu/eli/dir/2024/2853/oj

[5] https://mp.weixin.qq.com/s/HKbVSvQzULG13BSLCfVpBQ

[6] https://darioamodei.com/machines-of-loving-grace

[7] https://ia.samaltman.com/

[8]https://www.washingtonpost.com/documents/028582a9-7e6d-4e60-8692-a061f4f4e745.pdf

此时快讯

【韩国央行行长:比往常更大幅度的降息似乎没有必要,但需要考虑更多数据】金色财经报道,韩国央行行长表示,比往常更大幅度的降息似乎没有必要,但需要考虑更多数据。(金十)

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注