从智能家居到自动驾驶、从智慧办公到智慧司法,人工智能正塑造着传统社会的生产关系和生活方式。宏观上看,人工智能极大地提高了生产效率和生产质量,扩展了人类认知和创造的边界,堪称“社会发展利器”。2022年底,美国OpenAI公司推出生成式人工智能ChatGPT,国际社会震惊其文本生成、逻辑推理、多模态交互等强大功能的同时,也产生主体危机和安全焦虑。2025年初,中国人工智能企业深度求索(DeepSeek)发布其最新开源模型DeepSeek-R1,用较低训练成本达到接近于美国OpenAI公司GPT-o1的性能,再度引发全球轰动。在生成式人工智能发展如此迅速的时代,人类未来应当何去何从成为国际难题。此前,人们还可以“自信”地说,现实人工智能仅是一种弱人工智能,输出全靠“概率组合”“有多少人工,方有多少智能”。然而,生成式人工智能的快速迭代和能力跃迁,无疑给该论断打上一个问号。事实上,人工智能的理论研究逐渐出现转向苗头,从人类工具说发展为人机交互说、人类增强说、人机共生说等多种学说,并且不断强调人工智能的自主性。以知识产权领域为例,早期多数学者主张人工智能输出内容是算法、规则和模板的结果,不具备独创性,不应当认定为是作品[。]如今,主流观点却认为,生成式人工智能一定程度上模糊了程序算法和独立思考的界限,应从“工具论”转向“贡献论”,承认人工智能生成内容的可版权性[。]对生成式人工智能的主体认知,亦给治理造成范式难题,如何充分发挥人工智能价值的同时,避免风险现实化成为国际社会的普遍关切。2025年2月11日,包括中国在内的61个国家签署《关于发展包容、可持续的人工智能造福人类与地球的声明》,其中人工智能的可及性被作为优先事项,开放性、包容性、透明性、合乎道德性、安全性与可信性被作为国际准则,表现出价值与风险的平衡需求,对治理范式提出挑战。哲学作为“学科之母”具有较高站位,以其为理论指导,或许可为生成式人工智能引发的主体担忧给出解释,并指出行之有效的治理路径,确保人工智能始终向善发展。
关于生成式人工智能的法律主体地位,既有研究分为肯定态度的代理人说、电子人格说、人格拟制说,及否定态度的工具说、软件代理说、财产说。以上学说建立在现代法律制度和原则之上,如代理人说基于私法中的委托代理制度,主张人工智能在受托范围享有法律权利并承担相应义务[。]该推导逻辑与生成式人工智能难以适配,后者通过深度学习、神经网络,获得了“类人性”的特征,诸如机器“像人一样思考”“像人一样行动”“理性地思考”和“理性地行动”等定义,均认同了这一点。“类人性”使得生成式人工智能对以自然主体和拟制主体为基础的法律体系构成挑战,亟须运用哲学理论提供指引,而不是局限于法学理论本身。有学者就指出,电子人格说、人格拟制说等观点固然新颖,但犯有方向性、人究竟是什么及人与世界之间应有关系的基本认知错位与逻辑混乱的错误[。]
(一)主体争论:不同哲学理论下的定位
关于生成式人工智能的主体定位,不同哲学理论的解释大相径庭,也有各自的局限性。限于篇幅,不可能也无必要讨论所有哲学理论,下文将围绕几个相关度高、典型性强的哲学理论展开。
第一,二元论哲学。笛卡尔开创了二元论哲学,将世界分为思维实体与拓展实体两种不同属性,而人作为一个实体,其“全部本质或本性就是思维”。相比于一元论哲学,二元论哲学能更好地解释世界的复杂性,笛卡尔也被信息论之父香农、人工智能之父麦卡锡等人视为先驱。面对生成式人工智能的主体问题,有学者以二元论为判断标准,认为其只是一种工具,不应当作为独立主体。事实上,二元论轻视了生成式人工智能的自主性,将其等同于那些机械的、无智能的工具。但多数观点认为,以机器学习、神经网络为代表的生成式人工智能具有一定的自主性,不仅可对输入数据进行处理,更能学习和模拟事物内在规律,自主创造出新的内容。司法实践中,北京互联网法院通过判决承认了生成式人工智能的著作权属性,认定“AI绘画构成著作权法意义上的作品”。尽管该案法官指出并非所有人工智能生成物都能作为作品,也有其他法院作出不同判决,但可以肯定的是,生成式人工智能超越了机械工具。除此之外,二元论哲学还面临着为何缺少“心灵”的法人能够成为独立的法律主体诘难,并非恰当的解释依据。
第二,过程哲学和信息哲学。怀特海(Alfred N. Whitehead)是过程哲学的代表人物,提出“过程本体论”,主张以过程的视角看世界,认为过程即实在,实在即过程,世界就是一个由众多演化过程组成的结构[。]过程哲学与信息哲学在很多方面一致,比如均反对机械论,主张以过程和关系为核心理解世界,故可一并讨论。以过程哲学或信息哲学为指导的学者,对生成式人工智能的主体地位持肯定态度,但论证基点略有差异。前者从结果贡献切入,认为生成式人工智能通过数据输入和算法分析,与人作了深度交互,实质决定着输出内容,符合独立创作和一定创造性的最低要求。后者从责任分配切入,提出一种“分布式道德责任”,认为所有能动者应当共同承担责任,包括人类、人造能动者或混合能动者。简言之,具有自主性、交互性的生成式人工智能作为“无心”的道德主体,在符合因果关系时,同样要追究责任。尽管过程哲学和信息哲学把握住了生成式人工智能的自主性和交互性特征,但并不能就此证成其主体地位,尚有两大问题有待回答:一是何种程度的交互才构成独立主体;二是如何独立享有权利或承担责任。
第三,功能主义哲学。长期以来,功能主义哲学被作为分析人类主体的重要理论,即人之所以拥有主体地位,是因为具有不同于非人类的高级智能。1956年达特茅斯会议上,麦卡锡等人首次提出人工智能,并明确模拟、延伸和扩展人类智能的目的,故功能主义哲学与人工智能存在紧密关联。实际上,图灵测试亦蕴含着功能主义哲学的思维,因为评判人工智能是否通过测试的标准,正是人类智能。基于此,有研究区分了弱人工智能和强人工智能,主张后者可以通过图灵测试,能够成为独立的法律主体。如有刑法学者认为强人工智能具有辨认和控制能力,具有独立人格和刑事责任能力,应当作为刑事主体对待。然而,机器智能不完全等同于人类智能,即便两者在某些方面的形式表现高度一致,但机器缺乏真正理解,塞尔(John Searle)的“中文屋”便是典例,“恰当的编程就是一个心智”难以成立。技术界普遍认为,根据OpenAI提出的通用人工智能等级划分,当下实践至少存在二到三个等级差。故此,将生成式人工智能作为独立主体为时尚早。
第四,马克思主义哲学。随着时代发展,马克思主义哲学的内涵也在不断丰富,始终是解释和指导实践的有力工具。国内学者不乏以马克思主义哲学为指导,分析生成式人工智能主体问题,比如有学者从马克思主义对主体所要求的自我意识、自由意志和公共性关系出发,认为人工智能只具备有限的“准主体地位”。还有学者基于马克思劳动价值论,指出人工智能生成内容的过程并非劳动,没有创造新的价值,所以其不是劳动主体等等[。]整体上,相关研究看到马克思主义哲学解释生成式人工智能主体定位的可行性,并尝试结合具体内容分析,但不足之处有二:一是未全面立足马克思主义哲学关于人的本质命题,而根据特定领域论及某一方面,论证周延度有瑕疵;二是比较对象主要是自然人,对法人这种特殊主体的分析略浅,致使出现不当认知。
(二)主体前提:必须符合人的本质命题
现代社会,自然人成为法律主体的代名词,但所有自然人并非自始当然地具有法律主体地位。古代社会以血缘、性别等外在于人的因素为标准,形成差异化的自然人法律地位。现代法中自然人的主体地位建立在对其本质属性的哲学认识基础上。换言之,法律主体地位的确立绝非单纯的技术性操作,其本质是对存在物是否符合人类本质属性的哲学判断,这正是法学从哲学中吸取的本体论知识。多数法学者习惯将理性作为法律主体的哲学基础,认为理性使人能够为自然立法和为自身立法。理性固然是人的独特属性,但并非全部本质,而且现代法律普遍赋予没有理性的团体以主体地位,即法人。有学者作了辩护,指出“基于人之发展需要,可以授予为人之发展目的所必要的工具以主体地位”。然而,人的发展需要有很多,不是所有相关的工具都可赋予主体地位,可见答案最终必须回到人的本质之上。关于人的本质,不同哲学理论有不同主张,马克思主义哲学相对全面和成熟,提出三大命题:一是劳动实践本质论,劳动或实践是人的本质;二是社会关系总和论,人的本质是一切社会关系的总和;三是需要本质论,需要即人的本质[。]基于此,只有同时满足三大命题的存在才可称之为人。有观点可能质疑,认为法人本身不是自然人,但《中华人民共和国民法典》第五十七条明确规定“法人是具有民事权利能力和民事行为能力,依法独立享有民事权利和承担民事义务的组织”。有学者就主张,以法人这一拟制主体为先例,通过位格加等赋予生成式人工智能类比自然人的位格,从而确立其法律主体地位[。]但事实上,法人是因为符合相关命题,才被赋予法律主体地位,命题本身依然是前提条件。
从历史来看,法人概念源于罗马法对“团体”人格的承认,但现代主流观点不同,认为法人之所以能够成为法律主体,一方面是因为社会发展和人们生活的需要,另一方面是可通过法律拟制使得法人在一定范围内独立行使权利能力,承担法律义务。所谓的法律拟制是明知两者不同,而视为相同。德国著名学者考夫曼教授就认为,“拟制本质上是一种类推”。简言之,法人能够成为法律主体,除满足人的需求外,更关键的是其可类比自然人的本质属性。也就是说,通过法律制度设计,法人能够满足人的本质命题。首先,根据《中华人民共和国民法典》第五十八条的规定,法人应当有自己的名称、组织机构、住所、财产或者经费,这充分符合了人的需要即人的本质之命题。一旦法人缺少以上任何要素就无法存续,恰如人的需要没有得到满足而走向死亡;其次,根据《中华人民共和国民法典》第六十一条的规定,只有当法定代表人以法人名义从事的民事活动,其法律后果由法人承受,这符合了劳动或实践是人的本质之命题。一旦法律行为不是由法人意志(表现为法人决议)作出,那么相关法律效果则不能归于法人;最后,根据《中华人民共和国民法典》第六十条规定,法人以其全部财产独立承担民事责任,这符合了人的本质是一切社会关系的总和之命题。法人与其他主体的行为形成彼此的社会关系,由此产生的权利义务分配、责任问题自然应由法人独立承担。一旦法人与股东、法人代表等其他法律主体出现人格混同,法人的人格便会被否认,不再被视为独立的主体。
综上所述,马克思主义哲学中人的本质命题是确立现代法律主体的前提。因自然人天然符合人的本质命题,其法律主体地位无须额外论证。从该角度而言,现代法律是对人权的确立,而不是赋予,一部以损害人权为内容的法律哪怕经过立法程序,依然不具备正当性。法人虽不是自然人,但通过后续的法律制度设计,可以在一定范围内获得法律主体地位,而一旦超出了这个范围,法人便不再是法律主体。《公司法》第二十三条规定,就确认了公司法人人格否认制度,即公司股东滥用公司法人独立地位和股东有限责任,逃避债务,严重损害公司债权人利益的,应当对公司债务承担连带责任。同理,生成式人工智能能否视为法律主体,同样应当以人的本质命题为标准。
(三)主体证否:人工智能的本质性缺陷
首先,生成式人工智能不符合劳动或实践是人的本质之命题,不具备独立的、完整的主观意志,无法进行自由的自觉的活动。在马克思看来,整个世界历史不外是人通过人的劳动或实践而诞生的过程,个人与其实践是一致的。有观点质疑,认为动物也会从事生产,但动物显然不同于人,人的本质乃是自我意识。马克思、恩格斯对此作了反驳,指出“动物所能做到的最多是采集,而人则从事生产,人制造最广义的生活资料,这些生活资料是自然界离开人便不能生产出来的[。]”人的劳动或实践是有意识的生命活动,一个合格的主体能够在独立意志下开展活动。生成式人工智能虽然也可自动化处理部分任务,但这只是为了完成人预设的目标,并非意识指导下的劳动或实践,是一种有限度的、工具性的、异化的劳动。简言之,人的意识是知情意之统一体,而生成式人工智能无法具备情感、信念等意识形态,尤其是潜意识,故不能有意识地认识和改造世界,不符合劳动或实践为本质的命题。有学者亦指出,人工智能的本体从概念到符号,仅注重逻辑排序而不具有人的实践性,其意向并非自身固有的,而是人类附加在其身上的,不符合马克思主义指出人的主体性要素。
其次,生成式人工智能虽然也可与人交互,但无法像人一样具备社会性,不能成为享有权利义务的主体。马克思指出,“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”动物根本没有“关系”,而人类社会存在自然关系和社会关系,其中的社会关系决定了人的本质。费尔巴哈也主张,“人的本质不是人的胡子、血液、抽象的肉体的本性,而是人的社会特质”。但由于其未能从历史唯物主义解读社会关系,导致陷入感性的人本主义,将人的本质理解为理性、意志、爱等感性存在。马克思通过扬弃该观点,指出人的本质系一切社会关系的总和,其中生产关系是核心,政治、法律、道德等其他关系在前者基础上产生。法律主体间的权利义务关系作为规范调整重心,所以法律主体的本质可视为法律关系的总和,而法律关系又是依据规范建立的一种社会关系,由此体现了人的社会性本质。例如,自然人和法人均可通过法律行为获取财产,并享有财产权不受侵犯的合法权利。相比之下,人工智能不享有任何生产资料的所有权,无法与其他主体形成社会关系,自然无法成为法律关系的主体。有学者亦指出,技术的物化旨在增加人类财富,而不是让人工智能拥有独立财产权进而分享人的财富,这是生物意义上的人所不可能容忍的[。]独立财产的缺失使得人工智能难以像法人一般独立承担责任,理论上的“缴出赔偿”(把机器人交给受害方处置),机器人支付赔偿金或断电停用,最终承担者终归是机器人的“主人”,其“法律人格”多余且无必要。
最后,生成式人工智能缺少内在需要,不会有目的、主动地通过实践改造客观世界来满足需要。马克思指出,人的生命活动一定是从需要开始的,满足需要的过程也正是人的本质的体现,故需要是人的一种天然的、内在的必然性[。]此处的需要应作广义解释,包括生理需求、安全需求、认知需求等在内的全部需要。该命题涵盖和解释了前两个命题,被视为人的本质命题之综合。具言之,人的需要直接引发自由的自觉的活动,只有通过有意识的劳动或实践,人的需要才能被满足,从而客观地存续。事实上,法律主体通过各种法律行为处理与其他主体之间关系的最终目的,仍然是围绕着需求展开的,比如签订买卖合同是为了满足财产交换的需要,成立夫妻关系是为了满足爱和繁衍的需要等。反向来看,当一个自然人或法人死亡或破产后,既无需要也无法满足需要时,其不再是法律主体,不再享有相应法律权利。因此,《中华人民共和国民法典》第十三条明确规定,自然人从出生时起到死亡时止,具有民事权利能力,依法享有民事权利,承担民事义务。即便我们将电能、数据、算力等作为人工智能的存续需要,也会发现其与人的需要之本质区别:一是人工智能充实量具备最低层次的生存需要,而不具备人的全部需要,尤其是自我实现的需要;二是人工智能无法通过自由的自觉的活动实现自身需要,哪怕是最低层次的生存需要,如人工智能无法在缺少数据、算力或电力时,自行添加数据、加大算力和补充电力,只能在预定条件满足时执行算法。
对生成式人工智能的治理而言,明确法律主体定位是优先且必要的。一方面,该认知关乎人们如何看待风险,比如支持强人工智能作为独立主体的学者,倾向于认可人类替代、生命威胁等风险,但部分内容可能有所夸大。另一方面,该认知会影响人们采用何种治理路径,比如主张人工智能作为拟制主体的部分学者,认为有必要重塑刑事法理论,增设相关的罪名和罪责。但是,必须认识到主体地位并非治理的全部内容,实践中的风险表现、治理困境等问题需要作进一步分析。生成式人工智能的风险因不同类型而有所差异,但法学界的现有治理方案尚未充分考虑这一点,存在“大而泛之”的问题。至于哲学界的研究,则过于聚焦主体地位,在指导风险治理方面的推进不足,未能充分释放其潜能。
(一)风险表现:人工智能的类型化剖析
生成式人工智能是指具有文本、图片、视频等内容生成能力的模型及技术,其内部可采取一定标准进行分类,并表现出不同特点和风险。由于实践中不存在强人工智能,前述弱人工智能和强人工智能的划分不宜采用,下文将从训练数据、算法架构和技术协议三方面进行剖析。
第一,根据训练数据是否经过标注,可分为监督学习模型和无监督学习模型[。]监督学习模型使用预先经过人工标注的数据进行训练,是一种“自上而下”的知识图谱构建策略,特点是训练数据和内容输出的质量较高,缺陷是通用性较差,仅在特定领域表现良好。无监督学习模型则使用没有经过人工标注的数据,是一种“自下而上”的知识图谱构建策略,特点是训练成本低和通用能力强,缺陷是输出质量难以控制。总的来讲,两种模型的主要风险均来自训练数据,如果数据质量参差不齐或者被污染,模型很可能输出错误内容。此外,由于无监督学习模型的训练数据未经人工标注,而且数量比较庞大,所以还可能输出歧视性内容,比如美国部分人脸识别模型在识别男性白人的准确率上,远高于其他人群,原因正是训练数据集存在偏差。
第二,根据算法架构的逻辑权重,可分为推理模型和通用模型。推理模型(如DeepSeek-R1)采用符号逻辑结合神经网络的架构,并借助多头潜在注意力机制来增强思维链长度,能够将复杂问题拆分为多个子问题并逐步推导中间步骤,在算法可解释性方面具有显著优势,使得用户能够理解模型的输出过程,从而缓解生成式人工智能的信任风险。但推理模型的灵活性相对有限,在处理简单任务时会出现过度推理的问题。根据研究机构的测评结果显示,其“知识幻觉”也较为严重,可能加重人类决策的误导风险。相比之下,通用模型(如ChatGPT-4)更依赖数据内部的隐含知识,采用大规模参数和简单网络结构来降低计算复杂度,优点是泛化能力强、响应速度快,但输出过程不透明,用户难以追溯模型的生成过程。因此,通用模型的主要风险在于其黑箱化运行,导致利益相关者无法参与决策过程,引发信任危机。
第三,根据技术协议的公开情况,可分为开源模型和闭源模型。开源模型指由开源社区或组织开发、维护和共享的模型,其算法架构、源代码、参数权重及训练数据完全公开,允许任何人自由查看、修改和分发。因此,开源模型的透明度较高,可随时进行技术验证,但中国信通院的大模型安全基准测试结果显示,对开源模型的恶意攻击成功率上升明显,表明其在安全方面比较脆弱,长期稳定的商业支持与维护服务的缺失进一步放大了风险。反观闭源模型,其源代码和实现细节均不对外公开,安全指数相对较高,可避免用户的恶意篡改或病毒植入。然而,闭源模型为特定企业或组织所掌控,外部人员对训练数据是否合规,个人信息和数据是否被不当使用等情况基本一无所知,存在较大的数据滥用风险和隐私泄漏风险。总之,不同类型模型的风险侧重不同,要想实现有效治理,必须考虑措施是否符合技术特性。
(二)治理困境:法律和政策的有限治理
面对生成式人工智能的风险,法学界涌现出敏捷性治理、协同性治理、适应性治理、分类分级治理等多种方案,这些方案本质上并非对立而是交叉关系。比如,敏捷性治理立足于人工智能的不确定性,强调不断发掘拓展新的治理工具和治理方法,提升治理的灵活性、及时性。分类分级治理基于人工智能的复杂性,强调依据智能类型、风险大小、应用场景等要素,构建差异化规制体系,实现治理的精准性、合理性。进一步审视后,可发现分类分级其实亦是敏捷性治理主张的治理工具和治理方法。透过各种名称表象,现有治理方案并未跳出立法、伦理和政策的范畴,这与长期以来形成的路径依赖密不可分。具体而言,法学以人的社会关系而不是自然关系为调整对象,经过历史上多轮争辩,法律确立了自身在社会规范的核心地位,伦理则成为背后的价值支撑。迈入风险社会后,突发性公共卫生事件、生态环境恶化等问题层出不穷且危害极大,强调谦抑性、稳定性的传统法律难以及时有效地发挥作用。于是,法学界提出以风险规制为视角的现代法治,主张法律要有一定灵活性,尽可能地预防、规避和消解风险。此时,政策作为一种针对性和时效性较强的措施广为关注,并通过立法、修法、释法逐渐纳入规范体系,出现政策性立法或政策性条款,譬如危险犯罪、严格责任。自此,“法律+政策”成为立法者制定法律、司法者适用法律、执法者执行法律、法学者研究法律的主要范式,并随着司法实践的不断强化,最终形成惯性思维。这不是某一国而是国际社会的共同趋势,素有“沉默的金字塔”之称的日本国会也受风险社会理论影响,立法出现“干预普遍化”和“干预早期化”的特点。英国罗杰斯·布朗斯沃德教授提出法律1.0、法律2.0和法律3.0的概念,其中法律1.0主要通过将法律规范内部的规则、标准和一般原则适用于特定事实情境来实现治理;法律2.0基于单纯法律规则难以应对工业风险的事实,主张法律的政策导向和工具属性。对比分析下,可发现法律1.0和法律2.0正是上文内容的凝练反映,也佐证了结论的客观性和普适性。数字时代下社会风险的复杂性远超工业风险,法律和政策的作用空间被压缩,仅能在一定程度实现有限治理。
首先,法律1.0通过规范内部的一致来建构逻辑融贯的规范体系,再将特定事实纳入“司法三段论”予以规制,具有规范依赖性。当生成式人工智能作为调整对象时,法律1.0不得不面对两大困境:一是缺少直接立法,无法像对待刑事犯罪、民事侵权、经济竞争等行为一样,进行严格意义上的法律适用。对此,有观点提出回应性治理,主张根据发展情况及时制定立法,避免“无法可依”造成监管盲区。但生成式人工智能的不确定性,很可能导致立法陷入刚制定便被迫修改的窘境,比如ChatGPT为代表的生成式人工智能出现后,直接引发欧盟《人工智能法案》(以下简称《AI法案》)的紧急修正。或许正是上述考量,尽管国务院在2023年首次将人工智能法列入年度立法工作计划,但该法案未能同步纳入全国人大常委会的立法规划。2024年5月,国务院再次将“人工智能法(草案)”列为预备提请全国人大常委会审议项目,然而截至目前仍未进入实质审议阶段。二是虽有相关部门规章、地方条例,但规范的效力级别较低,内容交叉重叠的同时,又未明确适用顺序,极易造成“九龙治水”乱象。敏捷性治理下通过“小快灵”立法,制定部门规章、地方条例的阻力较小,亦可及时进行修改,但如前述生成式人工智能包括推理模型、通用模型、开源模型、闭源模型等不同类型,若每一种都仅靠法律进行治理,也会破坏规范的体系性和稳定性。概言之,在直接立法缺位和下位法规局限的背景下,法律1.0的实际治理效果堪忧,频繁立法易形成“智能治理—智能立法—条款不成熟—无法有效治理”的恶性循环。
其次,法律2.0本质上是借助政策的针对性和灵活性,指导、优化法律规范制度和体系,使后者能够有效应对工业时代中的风险。然而,审视我国人工智能的治理政策,可发现法律2.0的方案亦有困境:一是部分政策过于理想化,在立法条件尚不成熟的现实背景下,无法通过指导立法间接发挥治理作用。法律2.0离不开与法律1.0的对话,政策主要是以一种理论框架而不是立法替代物在法治建设中运行。我国《新一代人工智能发展规划》将人工智能上升为国家战略,部署了三步走的发展战略,其中第二步要求到2025年初步建立人工智能法律法规、伦理规范和政策体系,现在显然还有差距。二是即便将政策作为独立于立法的治理依据,也会因政策本身的分散繁杂、不同政策之间的价值对齐等问题,面临选择难题。例如,部分政策将发展视为人工智能治理的优先考量,如《促进新一代人工智能产业发展三年行动计划》。但也有政策聚焦于人工智能的安全,对技术研发和场景应用提出诸多伦理、原则要求,如《新一代人工智能治理原则》《新一代人工智能治理规范》。目前,有学者注意到单纯立法的不足,提出人工智能政策与法律协同治理,主张构建人工智能政策备案审查机制和政策参照适用机制。因此,如果法律2.0仅凭科技伦理、科技原则等宽泛性政策对生成式人工智能进行治理,而无法与法律1.0形成有效对话,能够发挥的作用将同样有限。
(三)哲学破境:经济基础上的融贯治理
承前述,无论是法律还是政策均难有效治理生成式人工智能,且两者之间缺少有效对话,学者们虽有认识但因惯性思维尚未打破僵局。困境其实源于“法律+政策”方案的内部缺陷,只要不跳出该逻辑闭环,几乎不可能寻得破境力量。工业时代的风险治理也不是依靠法律本身,而是借助政策与法律的对话促使法治迭代,最终才实现有效治理。马克思主义哲学指导下,生成式人工智能的治理必须考虑产业发展情况,因为法律和政策属于上层建筑的范畴,两者的内在协调对国家治理固然重要,但两者根本上取决于社会一定发展阶段的生产力所决定的生产关系的总和,即经济基础。当上层建筑为适合生产力发展要求的经济基础服务时,就成为推动社会发展的进步力量;反之,则成为阻碍社会发展的消极力量。对于智能领域而言,经济基础便是指一国的产业发展情况,技术水平是核心体现。故此,应当发挥法律和政策之外的技术力量,采取融贯治理的范式,即在治理中进行法律、政策与技术的互补融构。换言之,既要发挥传统规则、规制之外技术方案的治理作用,又要将法治作为衡量技术的尺度,确保法律、政策与技术的有效对话、共存。具体而言:(1)在制定人工智能政策时,应结合人工智能产业的现状,把握住技术治理最为紧迫和重点的事项,比如DeepSeek-R1为代表的推理模型正在重塑全球人工智能生态,我国可以充分发挥政策的针对性和灵活性,加大推理算力和算法架构的人员、资金扶持力度;(2)在制定人工智能立法时,同样要考虑人工智能产业现状,比如开源模型相比闭源模型更符合人类中心的利益,但安全风险确实较大,难以对抗外部的恶意攻击。因此,立法有必要明确开源模型研发者所要承担的责任范围,并提供免责事由,兼顾发展与安全。2025年3月29日,多位专家学者起草的《人工智能示范法》3.0正式发布,其中第八十三条规定,以免费且开源的方式提供人工智能研发所需的部分代码模块,同时以清晰的方式公开说明其功能及安全风险的,不承担法律责任。
域外,布朗斯沃德教授指出,法律和政策在数字治理方面的有限性,主张充分利用技术方案,使技术本身成为治理方案的一部分,即法律3.0。实质上看,法律3.0追求的是一种超越法教义学的融贯性,即法律、政策和技术之间的融贯,与本文寻找到的融贯治理内在一致,但前者未有意识地运用哲学的基本原理,导致带有一些缺陷,而这正是本文所能够解决的问题。具体而言:(1)法律3.0用技术来赋能原有治理方案,但哲学指导下真正的力量是经济基础。换言之,法律3.0将经济基础矮化为技术,容易走向技术崇拜的极端,造成人类主体异化。相反,经济基础的融入增强了“法律+政策”的治理方案的生命力,系统重塑了“规则之治+政策之治+技术之治”的法治概念。(2)布朗斯沃德教授并未阐述法律3.0如何与法律1.0、法律2.0进行有效对话,正如其所言“尽管不清楚法律3.0的对话将在哪里发生,也不清楚如何将新的融贯主义转化为行动,但法律制度(国内的、区域的和国际的,特别是国际的)需要适合与法律3.0相关的目的”。可见,法律3.0仍处于理论提出阶段,需要哲学指引:(1)立法和政策需要以产业现状为出发点和落脚点,确保其能够符合经济基础的需求。换言之,技术要主动对话法律和政策,打破两者内部的逻辑闭环,实现法治重塑。(2)经济基础会受到上层建筑的反作用力,所以应与上层建筑在矛盾运动中保持统一,始终推动社会形态的更新与发展。换言之,完善后的法律和政策要主动对话技术,一方面指明技术未来的发展空间,另一方面确定技术使用的合规要求。
生成式人工智能的治理绝非短时间内能够完成的任务,切忌过于急躁或贪大求全,而应当寻找和优先解决主要矛盾。马克思主义哲学指出,在社会发展的矛盾系统中存在主要矛盾和次要矛盾,其中主要矛盾居于支配地位并且对事物发展起着决定性作用。对生成式人工智能治理来讲,治理原则的明确是主要矛盾,其一方面具体体现着治理的目的和宗旨,是行为价值取向的反映;另一方面又是制度和规则的内容指引,影响着规范治理的实现路径。
(一)以人为本原则
历史唯物主义认为,社会历史发展过程中人民群众起着决定性的作用,是历史的主体和创造者,即“人们自己创造自己的历史”。马克思和恩格斯进一步指出,作为历史创造主体的人民群众,理应成为人类价值或幸福的主体。这种“幸福”不是宗教投射给人民的“虚幻幸福”,而是可以切身感受到的“现实幸福”。基于此,生成式人工智能治理作为社会历史行为的一种,同样应坚持以人民为中心的理念,因而得出第一个原则,即以人为本原则。换言之,唯物史观的社会历史主体论,为以人为本原则提供了理论支撑。该原则已成为国际普遍认可的治理共识,某种程度具有了类似国际公约的规范效力。举例而言,2023年11月,中美欧等28个国家签署的《布莱切利人工智能安全宣言》明确指出,为了所有人的利益,应以安全、以人为本、值得信赖和负责任的方式设计、开发、部署和使用人工智能。2024年9月,联合国发布《以人为本的人工智能治理》的报告,强调全球人工智能治理应以人工智能服务人类为目标,为此要加强人工智能治理的政策对话和国际互操作性。与此同时,以人为本原则的内涵尚且不明,亟须理论阐释。
以人为本原则包括三个子原则:其一,智能服务人类原则。以人为本原则最直接的内容是生成式人工智能的研发和使用始终以服务人类为目的。马克思的时代虽未出现生成式人工智能,但其在《1857—1858年经济学手稿》提到的“通过在自身中发生作用的力学规律而具有自己灵魂”的“自动机器体系”颇为相似。马克思提出要妥善运用机器体系,使其为“每个成员创造大量可以自由支配的时间”,而不是在资本控制下吞噬成员的自由时间,应当致力于实现人的解放[。]各国的规范、政策都强调了生成式人工智能研发应当以人为中心,如加拿大《人工智能和数据法案》指出,人工智能应用的目的是提升加拿大经济的价值,改善加拿大人民的生活。其二,人类最终控制原则。智能服务人类的目的原则要想实现,需要人类在人机交互过程中具有最终控制权,如此才能防止生成式人工智能偏离既定目标,或者在可能对人类造成威胁时及时刹车。有学者提出“人工智能新三原则”,即智能体永远是辅助、人类决策占比不低于黄金比例、人类应时刻把握着智能发展节奏,并随时准备好暂停或减速[。]尽管该学者细分了三点内容,但整体核心亦是人类最终控制原则。美国《人工智能权利法案蓝图》中规定“人类替代性”原则,指出公众有权在自动化系统出现故障、错误等情况下,随时选择放弃自动化系统并及时获得替代性的人工服务。其三,透明可解释原则。唯有生成式人工智能符合透明度要求且相关原理可解释时,人类方能判断相关行为是否偏离了服务人类的目标,以及应否行使最终控制权来暂停应用。从这个意义上讲,智能服务人类原则是目的,人类最终控制原则是底线,透明可解释原则是保障,三者共同构成了以人为本原则的全部内涵。可解释性是生成式人工智能治理的难题,但能够通过技术方案一定程度上解决,比如参照推理模型公布问题拆解、内容生成的步骤,或者转为开源模型公开算法架构、源代码、参数权重及训练数据,一旦涉及商业秘密、知识产权问题时,还需要结合分类分级治理原则进行比例衡平。
(二)发展与安全并重原则
如前述,在对待生成式人工智能发展与安全的问题上,部分政策尚未达成共识,唯物辩证法的对立统一律可为此提供理论指导。马克思和恩格斯通过批判吸收黑格尔辩证法的“合理内核”和费尔巴哈唯物主义的“基本内核”创立了唯物辩证法,认为事物的发展是有规律的,包括对立统一、量变质变和否定之否定,对立统一是根本规律[。]生成式人工智能的发展与安全便构成一对矛盾,两者的对立性表现为:发展要求尽可能地避免过多、过严的监管,而安全要求尽可能地采取全面、规范的监管。矛盾的解决需要在对立性中把握同一性,由此可推导出发展与安全并重才是实现螺旋式上升、波浪式前进的正确做法。我国《生成式人工智能服务管理暂行办法》第三条明确规定,国家坚持发展和安全并重、促进创新和依法治理相结合的原则。
发展与安全并重原则包括两方面内容:其一,包容性发展原则。生成式人工智能是国际竞争的焦点,其不只是一项技术、一类产品、一个行业,更是影响当代人类命运沉浮的最大变量[。]对于任何国家来讲,发展生成式人工智能是一项必然选择,落后就会被时代所抛弃。我国生成式人工智能产业处于“追赶者”到“领跑者”的转型阶段:一方面产业经济发展迅速,取得诸多成就,如国家数据局《数字中国发展报告(2023年)》指出,我国算力总规模达到230EFLOPS,居全球第二位;人工智能、5G/6G等核心技术不断取得突破,高性能计算持续处于全球第一梯队;另一方面产业发展存在原创成果不足、区域差距悬殊、科技人才短缺等问题,如DeepSeek的主要创新在于算法架构和工程优化,并未打破英伟达CUDA生态系统,算力不足问题依然严峻。故我国绝不能停下发展脚步,要坚持包容性发展。已故的原国务院总理李克强同志曾亦主张,对那些未知大于已知的新业态采取包容态度,只要它不触碰安全底线。当新业态刚出现的时候,不要一上来就“管死”,而要给它一个“观察期”。其二,安全底线原则。生成式人工智能带来全球机遇的同时,也在社会各领域引发信息泄露、算法歧视等风险,并且超越了传统物理空间的边界。因此,必须为生成式人工智能划定安全底线,严禁对人类生存和基本人权构成威胁的研发和使用,对滥用生成式人工智能从事非法活动的行为,坚决予以打击。《AI法案》正是认识到这一点,才规定不可接受的风险清单,要求绝对禁止任何投放市场或投入使用的行为。巴黎人工智能峰会上,美国副总统万斯提出“去监管”主张,AI教父Hinton对此公开指责,认为万斯对技术风险一无所知,监管不会扼杀AI,我们需要开发AI,但也必须确保安全。
(三)分类分级治理原则
生成式人工智能的监管边界和监管力度是一大难题,监管过严则阻碍技术发展,但监管过宽又对人类安全造成威胁。矛盾分析法是人类认识事物的根本方法,在实践中的表现即具体问题具体分析,被视为马克思主义的活的灵魂。实际上,具体问题具体分析与法学界惯用的比例原则内在一致,后者是前者在法学领域的具象化,以两者为理论指导可推出分类分级治理原则。具言之,比例原则要求行为是实现正当目的的必要手段,所造成的损害同其所促进的利益成比例,并且需以对权利人损害最小的方式进行。因此,生成式人工智能治理应根据智能类型、风险大小、应用场景选择必要的、合乎比例的、损害最小的处理手段的方法。
分类分级治理原则在各国政策、规范中均有体现,欧盟《AI法案》便是典型代表,并且作为世界第一部人工智能立法扩大了该原则的国际认同。该原则需要把握三方面内容:其一,明确分类分级标准,一旦标准模糊或存在问题,将造成有效治理目的的落空。当下智能分类基本围绕着“行业领域、业务属性、专门管理要求”三方面展开,前述推理模型和通用模型、开源模型和闭源模型尚未受到足够重视。智能分级方面,《AI法案》采用了“四分法”,将人工智能分为不可接受的风险、高风险、有限风险和较低风险。有学者认为“四分法”过于严厉,且“不可接受风险”的标准模糊,建议采用负面清单制度实施“两分法”。也有学者主张采用高、中、低风险的“三分法”,并以《生物安全法》为例证。综合人工智能的不确定性和发展需求,笔者支持后者。其二,基于分类分级设计必要的、合乎比例的合规义务。欧盟“四分法”中的义务条款值得借鉴,具体可通过算法备案予以落实:(1)当下算法备案制度以告知作用为核心,约束力有效且易滞后,应当限于中风险,告知事项可参照《AI法案》中的透明度义务;(2)对于高风险应引入许可型备案,由监管机构事先对备案算法的材料进行实质审查,唯有设置防范措施和保护机制后方可入市使用,参照《AI法案》实施“全生命周期的监管”;(3)低风险无备案必要,但需做好显式标识、隐式标识,使用户对智能生成内容有所认知。2025年3月7日,国家互联网信息办公室等四部门通过《人工智能生成合成内容标识办法》,其中第四条和第五条分别对显式标识和隐式标识的使用作了明确。其三,结合个案生成式人工智能的技术特性、应用场景等因素,在确定其所属的风险级别中选择损害和负担最小的行为,如区别对待司法量刑辅助的高风险人工智能与商业竞争的高风险人工智能,前者应突显算法公开透明的要求,后者则需妥善协调算法公开与商业秘密之间的价值冲突,这也是具体问题具体分析和狭义比例原则的应有之义。
(四)智能问责原则
权利和义务的实现,取决于责任的落实情况。马克思主义哲学认为,权利义务应当是相互一致的,这源于黑格尔的“无权利即无义务,无义务即无权利”[。]在此基础上,如果承担义务的人不遵守相关要求,就需要面临相应的不利后果。对此,黑格尔的解释是作为理性主体应当为意志支配下的行为担责,归责即是指将行为及其后果归属到一个作为主体的人格之上。依据行为人意志进行归责是现代法治的共识,如《中华人民共和国民法典》第一千一百五十六条规定,“行为人因过错侵害他人民事权益造成损害的,应当承担侵权责任。”经前文论证,生成式人工智能并非法律主体而是治理对象,但这不意味着相关责任没有承担者,通过结合“分布式道德责任”可以确立智能问责原则。
具体而言,其一,生成式人工智能本身无法担责,应当在法律主体中寻找担责方。从技术逻辑看,涉及的法律主体主要是技术支持者、服务提供者、服务使用者三方,特定情况下三方主体也可能出现身份同一的情形。欧盟《机器人技术民事法律规则》尝试确立人工智能的电子人格,并令其独立承担赔偿责任,但该方案受到广泛批评,其后《AI法案》《人工智能责任指令》均予以放弃。英国《支持创新的人工智能监管方法》指出,对人工智能造成的法律责任的问责,应当由已确定或可确定的法律主体承担,与我国《新一代人工智能伦理规范》要求的“人类是最终责任主体”相一致。其二,为确保有效问责应打开算法黑箱并进行解释,以便在其中寻找损害发生的原因,从而确定由技术支持者、服务提供者还是服务使用者承担责任,抑或是多方主体承担共同责任。有学者认为,生成式人工智能属于产品,原则上应当将侵权责任更多地分配给提供者而非使用者。这种说法并不妥当,忽略了开源模型和闭源模型的区别,不加分辨地施加侵权责任不利于健康生态的形成。根据行为人在因果链条中的作用力分配责任,才更符合“分布式道德责任”的要求,亦是对人的理性之尊重。其三,应当建立类型多样、阶梯式的处罚体系,涵盖刑事责任、民事责任和行政责任,这是与分类分级治理原则内在融贯的必然之举。目前,欧盟《AI法案》的处罚方式比较单一,主要是行政罚款。加拿大《人工智能和数据法案》则规定了行政罚款、损害诉讼、刑罚三种惩罚机制,可作重点研判。其四,责任处罚应当具有强制性,不能寄希望于企业自愿、自觉的行动,商业逐利的本质一旦脱离强制力管控就会无限扩展。当然,主张强制性责任并不意味着对行业自治、企业自律的完全否定,后者仍有积极意义,还是需要加强对行业行为规范、企业合规制度的正确引导,做到“软硬搭配”“刚柔并济”。
ChatGPT、DeepSeek等生成式人工智能的强大表现,再次引爆人们原本有所消散的主体危机感,侧面说明基于智能程度的研究存在局限,无法根本上解决生成式人工智能的定位问题,亟须以哲学这一超越单一领域的世界观和方法论作为理论指导。不同哲学理论下生成式人工智能的法律主体定位存在争论,但人的本质命题才是前提条件。立足于此,可发现生成式人工智能未符合任何一个本质命题,仅是治理的客体对象。以马克思主义哲学为指导,可在“法律+政策”的传统方案外寻找到新的破局力量,即经济基础,形成“规则之治+政策之治+技术之治”的融贯治理,并通过与法律3.0理论相印证,加强哲学指导生成式人工智能治理的正当性,同时对法律3.0的固有缺陷进行补足。鉴于治理原则系生成式人工智能融贯治理的关键,本文综合运用社会历史主体论、对立统一律等经典理论,提出并阐释了以人为本、发展与安全并重、分类分级治理、智能问责等基本原则。总体而言,尽管生成式人工智能来势汹汹且随着经济发展不断迭代,人类需要谨慎对待但不必因噎废食。但同时,应认识到生成式人工智能的治理是一项长期工程,需要“守正笃实,久久为功”,更需要充分挖掘规范体系的潜力,融贯哲学指导与治理实践。