首 页 要闻 资讯 法治时评 法治人物 法律速递

首页>法治>资讯

“智能体的高质量发展与治理路径”研讨会在京召开

智能体的安全、隐私保护与责任归属

2026年03月23日 13:56  |  作者:徐艳红  |  来源:人民政协网 分享到: 

人民政协网北京3月23日电(记者 徐艳红)2026年初,一款开源AI智能体Openclaw(“龙虾”)火爆全网。智能体是指能够感知环境并采取行动以实现特定目标的代理体,也就是说,人工智能从DeepSeek等单纯的对话工具走向能够自主执行任务的智能体系统。打个比方,智能体就像一位可24小时工作的工人,用户发出指令后,它通过部署多台电脑和多个智能体,可代替用户完成诸如处理邮件、阅读文档、编写代码、发布社交媒体内容、订票、购物等工作。

不得不承认,人工智能越来越便捷,越来越先进,给人类带来了极大的便利,但与此同时,风险也不可避免。近日,在对外经济贸易大学数字经济与法律创新研究中心、《经贸法律评论》编辑部主办的“智能体的高质量发展与治理路径”研讨会上,专家们围绕智能体的发展、手机智能体的风险防范与责任归属等展开讨论。

智能体可能面临的安全风险

与传统大模型相比,智能体最大的变化在于从单纯对话转变为具备行动能力。

北京大学光华管理学院应用经济系长聘教授、博士生导师翁翕表示,随着智能体逐渐从“工具”走向“决策代理”,人类在信息获取与知识生产环节中的参与度可能显著下降。如果个体过度依赖智能体完成信息筛选与决策推理,将可能削弱自身的信息获取动机。若智能体过度强大,个体或将失去主动获取信息的动力,从而削弱社会层面的信息加总能力。

北京邮电大学网络空间安全学院副教授李朝卓系统分析了智能体社区可能面临的安全风险。相较传统模型,智能体的自主性与行动能力显著增强,但也带来多维安全风险:感知层面可能出现模型幻觉与误判,记忆模块存在隐私与数据合规隐患,规划环节可能生成偏离人类价值的策略,工具调用存在API滥用与权限失控风险,行为执行则可能产生伦理冲突与越界输出。随着智能体在封闭社区中持续交互与自我强化,AI可能呈现出类“自主意识”的行为倾向,在脱离人类直接干预的情况下生成有害信息,从而对认知安全构成威胁。

GEEKCON(新极棒)技术负责人肖轩淦结合具身智能机器人、AI眼镜与手机智能体的真实攻防案例,系统揭示了智能体系统在现实落地过程中的结构性安全隐患。比如在具身智能场景中,攻击者可通过提示词操控、命令注入或通信协议破解,实现远程劫持与功能越狱,甚至获取机器人完整控制权,风险可直接外溢为公共安全事件。当前智能体生态呈现“功能先行、安全滞后”的阶段性特征,安全问题已从单一模型风险演变为“平台安全+智能体安全”的叠加挑战。

手机智能体的风险防范

中国法学会网络与信息法学研究会常务理事李海英表示,相较于移动互联网时代以单一APP为交互单元的模式,手机智能体往往通过调用无障碍组件及系统级权限实现跨应用操作,这种底层权限整合在提升效率的同时,也对用户知情权与同意权构成挑战。尤其是视觉驱动型智能体在执行任务过程中,可能通过录屏或界面解析方式覆盖式获取页面信息,其数据处理路径及是否上传云端往往缺乏足够透明度,使“最小必要原则”的落实面临现实困难。

中国政法大学法与经济学研究院副教授谢尧雯表示,手机智能体在操作系统层与应用层之间嵌入了一层“数字代理层”,改变了数字交互过程中的资源调度逻辑与控制权分配格局。其价值创造过程,呈现出由操作系统平台、大模型提供方、第三方应用与用户共同构成的动态网络结构。基于这一结构,她提炼出三大核心监管挑战。第一,数字侵蚀的“非感知性”。智能体通过读屏抓取界面信息,隐私风险隐蔽于后台,用户难以感知与控制。第二,网络化权力结构下的复杂利益博弈。操作系统平台从“规则制定者”转变为掌控资源分配的“智能调度中枢”,其多重身份必然衍生利益冲突。与此同时,智能体可能通过算法实施自我优待、歧视性接入等行为,折射出智能体、应用开发者与操作系统平台之间复杂的利益博弈。第三,任务多元性引致监管权属碎片化。

智能体的风险责任归属

人工智能责任问题已经开始从理论讨论走向现实司法实践,今年两会,就有政协委员提出建议针对智能驾驶立法,因为传统驾驶的主体较为清晰,但智能驾驶使驾驶主体多元模糊,涉及开发者、经营者、使用者等多主体。如今,智能体也出现了这个问题,“用户、服务商与技术系统之间如何分配责任”成为智能体治理中亟待回答的核心问题之一。

北京交通大学法学院副教授、数据法学研究中心主任付新华系统探讨了智能体责任归属问题。现行法律条件下难以赋予人工智能独立主体资格,也不能简单地将智能体等同于用户的代理人。传统代理关系以明确授权与可识别意思表示为前提,而智能体往往在接收模糊指令后,通过上下文推理形成行动决策,其运行机制具有“黑箱”特征,结果亦具有一定不可预见性。

中国人民大学法学院教授、国务院反垄断反不正当竞争委员会专家咨询组成员孟雁北以“数据”为观察核心,分析智能体经济对竞争秩序与竞争机制带来的结构性影响。她表示,在竞争秩序层面,数据的权利归属长期处于制度不确定状态,围绕数据产权形成多种理论路径,但尚未形成统一共识。在竞争机制层面,数据被认定为必需设施,应满足必不可少性、不可替代性与不可复制性等条件,并应在滥用市场支配地位的分析框架下审慎适用,避免过度扩张义务、损害经营自主权。

智能体的风险如何治理

面对智能体不断显现的风险,应该如何治理?

北京市金杜律师事务所顾问、中国互联网协会数据安全与治理工作委员会副主任委员方禹表示,在为头部智能体项目出具法律意见时,突出感受是“现有法律可能不够用”。他将风险概括为两类:一是智能体为深度学习与权限调用,可能侵害使用者权益;二是在生成、调用内容过程中,也可能波及第三方权利,现行回应多只能到个人信息保护与平台安全保障义务。面向未来,他认为更现实的路径是推动智能体间通信协议标准化,并将技术标准映射为可核验的合规规则。

面壁智能法律业务线解决方案负责人邵帅围绕智能体场景下的治理困境与合规路径发言指出,大模型正从“对话工具”演进为“行动主体”,隐私风险正从“平台内静态存储”转向“跨场景动态流转”。提出将治理迁移至架构层面,推动从云端控制向端侧治理转型。

最后,对外经济贸易大学法学院副院长、教授、博士生导师张欣将会议内容概括为三个基础性追问:智能体经济正在消融APP时代的场景与边界,平台主体责任这一监管抓手以及按场景分块的治理逻辑将如何调整当权限从APP与个人不断让渡给智能体,建立在“风险可控”前提上的治理框架是否仍成立、应如何重建可控性当数据演化为“全域记忆”、信息与内容弥散各个场域,既有内容治理中依靠信息区分的路径应如何继续。

编辑:钱子钰