人工智能法治研究十大议题发布
法学专家热议:如何让“会办事”的AI“办好事”
中青报·中青网记者 贾骥业
来源:中国青年报
(2026年03月24日 06版)
人工智能(AI)法治已成为学界研究的一个热点领域。
3月19日晚,“探寻人工智能法治研究的真问题(第二季)”研讨会在线上举行。数十位法学领域专家学者齐聚网络空间,探讨AI治理中的前沿法律难题,并在会上联合发布了《人工智能法治研究十大议题(2026)》。这是“人工智能法治研究十大议题”的第二年发布。
今年的10个议题包括:智能体的行为边界、授权机制与竞争治理,人工智能拟人化互动的法律风险及回应,生成式人工智能幻觉致损风险防范与责任承担,人工智能时代个人信息保护制度的结构性冲突与制度调适,人机协同场景下知识产权等权属与利益分配规则,前沿人工智能安全保障与极端风险防控的法治进路,人工智能产业政策的法治调控,人工智能企业出海的法律问题,人工智能技术标准、伦理准则与法律规则的体系协调,人工智能法律治理的新型工具。
“今年的议题更加聚焦,重在‘真’和‘实’。”中国政法大学人工智能法研究院院长张凌寒在研讨会上介绍,2025年的十大议题,为人工智能法治研究划定了“主要坐标”,涵盖面较广。今年的议题,坚持问题导向和现实针对性,更强调“小切口、深挖掘”,“我们希望用真问题推动真研究,用真研究产生真成果。”张凌寒说。
打通智能体的“任督二脉”
呼应当下热门的养“龙虾”(OpenClaw——开源AI智能体),“智能体的行为边界、授权机制与竞争治理”被放在了10个议题的第一个发布。
2026年开年以来,OpenClaw在全球科技圈迅速走红。与传统聊天机器人不同,该智能体可通过整合调用通信软件和大语言模型,在用户本地电脑自主执行文件管理、邮件收发、数据处理等复杂任务。此外,用户还可以通过安装技能包代码来训练和扩展其能力。
对外经济贸易大学数字经济与法律创新研究中心主任许可表示,OpenClaw等智能体可以帮用户发消息、做决策、谈合作,代表着人工智能正在从“会说话”向“会办事”转变,真正进入人类生活,但这样一种新的人工智能业态也带来了大量法律挑战。
“智能体的出现,瓦解了很多传统隐私和法学理论所依赖的环境。”浙江大学数字法治研究院研究员李汶龙说,一方面,智能体通过笼统授权,使得传统意义上公域、私域的二分格局被打破。同时,智能体行动链条的复杂度远超人类预期,传统的法律工具可能很难有效解释或应对当下技术的复杂性。另一方面,智能体还打破了原有的竞争生态,需要建立新的公平有序的竞争规则。“智能体授权等问题可能存在‘任督二脉’,只有打通了这些‘任督二脉’,智能体这个行业作为一个新兴行业才能发展起来。”李汶龙说。
具体来看,用户对于智能体的授权范围边界在哪;智能体作为一个“代理”,它的行为边界在哪;智能体能不能以用户“代理”的身份作为免责借口;如果智能体犯了错,所有责任是否都由用户承担……这些问题就是智能体产业发展的“任督二脉”。“对于这些问题,在实践中需要充分讨论,这里面既有公法问题,又有私法问题,既有技术问题,又有很多法学理论问题。”许可说,在成为现实之前,人工智能的行为边界、授权机制、市场竞争规则与合作生态建设等问题是必须要关注和解决的。
AI给用户答案 法律应能保障各方合法权益
此次发布的十个议题中,“生成式AI幻觉致损风险防范与责任承担”是当前法律适用中的一个新难题。此前,杭州互联网法院审结了全国首例因生成式人工智能模型“幻觉”引发的侵权纠纷案。在该案中,法院认定人工智能不具有民事主体资格,不能作出意思表示;该案涉生成式人工智能属于服务,而非产品,不应适用无过错责任原则。这也为AI幻觉相关侵权纠纷的司法认定提供了参考。
“随着生成式人工智能技术迭代升级,尤其是智能体信息工作流逐步成熟,AI早已跳出单纯生成内容的基础定位,进入到信息筛选、分析、判断乃至核心决策等环节。用户对AI输出内容的依赖度爆发式增长,与之对应的,用户自主审查核验生成内容真实性与准确性的能力却在持续弱化。”西北政法大学人工智能法治研究中心教授杨建军说。
这一现实转变,直接让人工智能幻觉致损的法律核心矛盾,发生了根本性迁移。杨建军表示,我们过去关注生成内容本身是否违法、是否属于不良信息,当下,则更需要关注用户基于合理信任采信错误内容后,引发的人身损害、财产损失乃至各类衍生风险。“这让‘合理性’的标准界定成为当前法律适用和风险防范的核心痛点。”他说。
一个核心问题是:当AI的专业性不断逼近甚至超越用户认知,法律层面的合理性该如何界定,用户能不能对AI生成内容形成合法的合理信赖,在哪些前提下信赖才能被认定为合理?这是破解后续责任认定难题的逻辑起点。
“更关键的是,在医疗诊断、法律研判、金融投资等高风险决策场景下,用户对AI输出内容的专业可信度要求极高,‘合理性’的标准显然不能一刀切,必须做出差异化适配。”杨建军强调。
在实践中,AI服务提供者普遍会使用“仅供参考”等免责声明、风险提示,这类条款能不能直接作为幻觉致损后免除责任的依据,也存在巨大争议。“如果一概认定告知有效,会变相弱化平台方的内容管控义务;如果一概否定,又会过度限制AI产业的创新发展。”杨建军说,未来需要明确“合理性”的适用边界,平衡用户权益保护与产业发展,既不让用户盲目承担全部风险,也不能让合理的风险提示完全失去效力。
“生成式人工智能不是单一主体就能完成的,往往涉及模型的研发提供者、系统部署的运营方、插件及工具的提供者等多个主体,各方在技术掌控能力、风险预见可能性、实际介入系统运营的深度上都有明显差异。因此,必须综合考虑不同主体的功能、义务、能力等,既要压实各方的风险防控责任,守住用户合理合法权益,又要为产业发展预留空间。”许可说。
AI产业发展需要法治“护航”
AI法治的研究不光关注人,也关注这个行业。近年来,人工智能发展愈加迅猛,成为驱动新兴产业跃升的关键引擎。这背后,就有国家相关政策的深度介入和公共资源的系统性投入。比如,公共机构持有的数据资源、基础设施建设能力以及合规治理工具等,正在成为支撑大模型训练、应用落地与风险防控的重要制度要素。
但随着AI产业的不断发展,问题也愈发凸显。“产业政策在推动技术创新和产业集聚的同时,也可能通过资源配置与合规导向,对市场竞争结构、技术路径选择以及主体行为产生深远影响。如何确保政策在法治轨道上运行,需要引起注意。”北京大学法学院副院长戴昕说。
具体来看,有如下几个突出问题:一是公共机构持有数据用于大模型训练的规则及机制不够完善,如何在坚守公共利益原则的前提下,确保数据利用活动不背离公共数据产出价值,把公共数据有序纳入AI的研发过程;二是关于人工智能公共基础设施及社会生态建设,要通过制度和政策不断地推动并保证持续的资源供给。
“人工智能产业的健康发展离不开合理有效的产业政策,这些产业政策需要在法治轨道上谋划、设计、实施。产业发展是需要在法治的框架之下来推动的,从而实现社会福祉的整体提升。”戴昕强调说。
在这场聚焦“AI法治”的研讨会上,拟人化AI、AI企业出海、AI法律治理等诸多议题都得到了充分讨论。
在四川大学法学院教授左卫民看来,此次发布的十大议题是当前AI发展面临的现实前沿问题,但视角还主要偏向学界和产业界,从公众、消费者的角度,怎么解决上述法律问题,还需要进一步思考和探讨。同时,在这10个议题之外,还有很多相关的问题需要研究,比如AI技术发展背后的国家安全、公共安全等。
中青报·中青网记者 贾骥业来源:中国青年报
2026年03月24日 06版
人工智能(AI)法治已成为学界研究的一个热点领域。
3月19日晚,“探寻人工智能法治研究的真问题(第二季)”研讨会在线上举行。数十位法学领域专家学者齐聚网络空间,探讨AI治理中的前沿法律难题,并在会上联合发布了《人工智能法治研究十大议题(2026)》。这是“人工智能法治研究十大议题”的第二年发布。
今年的10个议题包括:智能体的行为边界、授权机制与竞争治理,人工智能拟人化互动的法律风险及回应,生成式人工智能幻觉致损风险防范与责任承担,人工智能时代个人信息保护制度的结构性冲突与制度调适,人机协同场景下知识产权等权属与利益分配规则,前沿人工智能安全保障与极端风险防控的法治进路,人工智能产业政策的法治调控,人工智能企业出海的法律问题,人工智能技术标准、伦理准则与法律规则的体系协调,人工智能法律治理的新型工具。
“今年的议题更加聚焦,重在‘真’和‘实’。”中国政法大学人工智能法研究院院长张凌寒在研讨会上介绍,2025年的十大议题,为人工智能法治研究划定了“主要坐标”,涵盖面较广。今年的议题,坚持问题导向和现实针对性,更强调“小切口、深挖掘”,“我们希望用真问题推动真研究,用真研究产生真成果。”张凌寒说。
打通智能体的“任督二脉”
呼应当下热门的养“龙虾”(OpenClaw——开源AI智能体),“智能体的行为边界、授权机制与竞争治理”被放在了10个议题的第一个发布。
2026年开年以来,OpenClaw在全球科技圈迅速走红。与传统聊天机器人不同,该智能体可通过整合调用通信软件和大语言模型,在用户本地电脑自主执行文件管理、邮件收发、数据处理等复杂任务。此外,用户还可以通过安装技能包代码来训练和扩展其能力。
对外经济贸易大学数字经济与法律创新研究中心主任许可表示,OpenClaw等智能体可以帮用户发消息、做决策、谈合作,代表着人工智能正在从“会说话”向“会办事”转变,真正进入人类生活,但这样一种新的人工智能业态也带来了大量法律挑战。
“智能体的出现,瓦解了很多传统隐私和法学理论所依赖的环境。”浙江大学数字法治研究院研究员李汶龙说,一方面,智能体通过笼统授权,使得传统意义上公域、私域的二分格局被打破。同时,智能体行动链条的复杂度远超人类预期,传统的法律工具可能很难有效解释或应对当下技术的复杂性。另一方面,智能体还打破了原有的竞争生态,需要建立新的公平有序的竞争规则。“智能体授权等问题可能存在‘任督二脉’,只有打通了这些‘任督二脉’,智能体这个行业作为一个新兴行业才能发展起来。”李汶龙说。
具体来看,用户对于智能体的授权范围边界在哪;智能体作为一个“代理”,它的行为边界在哪;智能体能不能以用户“代理”的身份作为免责借口;如果智能体犯了错,所有责任是否都由用户承担……这些问题就是智能体产业发展的“任督二脉”。“对于这些问题,在实践中需要充分讨论,这里面既有公法问题,又有私法问题,既有技术问题,又有很多法学理论问题。”许可说,在成为现实之前,人工智能的行为边界、授权机制、市场竞争规则与合作生态建设等问题是必须要关注和解决的。
AI给用户答案 法律应能保障各方合法权益
此次发布的十个议题中,“生成式AI幻觉致损风险防范与责任承担”是当前法律适用中的一个新难题。此前,杭州互联网法院审结了全国首例因生成式人工智能模型“幻觉”引发的侵权纠纷案。在该案中,法院认定人工智能不具有民事主体资格,不能作出意思表示;该案涉生成式人工智能属于服务,而非产品,不应适用无过错责任原则。这也为AI幻觉相关侵权纠纷的司法认定提供了参考。
“随着生成式人工智能技术迭代升级,尤其是智能体信息工作流逐步成熟,AI早已跳出单纯生成内容的基础定位,进入到信息筛选、分析、判断乃至核心决策等环节。用户对AI输出内容的依赖度爆发式增长,与之对应的,用户自主审查核验生成内容真实性与准确性的能力却在持续弱化。”西北政法大学人工智能法治研究中心教授杨建军说。
这一现实转变,直接让人工智能幻觉致损的法律核心矛盾,发生了根本性迁移。杨建军表示,我们过去关注生成内容本身是否违法、是否属于不良信息,当下,则更需要关注用户基于合理信任采信错误内容后,引发的人身损害、财产损失乃至各类衍生风险。“这让‘合理性’的标准界定成为当前法律适用和风险防范的核心痛点。”他说。
一个核心问题是:当AI的专业性不断逼近甚至超越用户认知,法律层面的合理性该如何界定,用户能不能对AI生成内容形成合法的合理信赖,在哪些前提下信赖才能被认定为合理?这是破解后续责任认定难题的逻辑起点。
“更关键的是,在医疗诊断、法律研判、金融投资等高风险决策场景下,用户对AI输出内容的专业可信度要求极高,‘合理性’的标准显然不能一刀切,必须做出差异化适配。”杨建军强调。
在实践中,AI服务提供者普遍会使用“仅供参考”等免责声明、风险提示,这类条款能不能直接作为幻觉致损后免除责任的依据,也存在巨大争议。“如果一概认定告知有效,会变相弱化平台方的内容管控义务;如果一概否定,又会过度限制AI产业的创新发展。”杨建军说,未来需要明确“合理性”的适用边界,平衡用户权益保护与产业发展,既不让用户盲目承担全部风险,也不能让合理的风险提示完全失去效力。
“生成式人工智能不是单一主体就能完成的,往往涉及模型的研发提供者、系统部署的运营方、插件及工具的提供者等多个主体,各方在技术掌控能力、风险预见可能性、实际介入系统运营的深度上都有明显差异。因此,必须综合考虑不同主体的功能、义务、能力等,既要压实各方的风险防控责任,守住用户合理合法权益,又要为产业发展预留空间。”许可说。
AI产业发展需要法治“护航”
AI法治的研究不光关注人,也关注这个行业。近年来,人工智能发展愈加迅猛,成为驱动新兴产业跃升的关键引擎。这背后,就有国家相关政策的深度介入和公共资源的系统性投入。比如,公共机构持有的数据资源、基础设施建设能力以及合规治理工具等,正在成为支撑大模型训练、应用落地与风险防控的重要制度要素。
但随着AI产业的不断发展,问题也愈发凸显。“产业政策在推动技术创新和产业集聚的同时,也可能通过资源配置与合规导向,对市场竞争结构、技术路径选择以及主体行为产生深远影响。如何确保政策在法治轨道上运行,需要引起注意。”北京大学法学院副院长戴昕说。
具体来看,有如下几个突出问题:一是公共机构持有数据用于大模型训练的规则及机制不够完善,如何在坚守公共利益原则的前提下,确保数据利用活动不背离公共数据产出价值,把公共数据有序纳入AI的研发过程;二是关于人工智能公共基础设施及社会生态建设,要通过制度和政策不断地推动并保证持续的资源供给。
“人工智能产业的健康发展离不开合理有效的产业政策,这些产业政策需要在法治轨道上谋划、设计、实施。产业发展是需要在法治的框架之下来推动的,从而实现社会福祉的整体提升。”戴昕强调说。
在这场聚焦“AI法治”的研讨会上,拟人化AI、AI企业出海、AI法律治理等诸多议题都得到了充分讨论。
在四川大学法学院教授左卫民看来,此次发布的十大议题是当前AI发展面临的现实前沿问题,但视角还主要偏向学界和产业界,从公众、消费者的角度,怎么解决上述法律问题,还需要进一步思考和探讨。同时,在这10个议题之外,还有很多相关的问题需要研究,比如AI技术发展背后的国家安全、公共安全等。