首页>法治>要闻
“养龙虾”火出圈,背后的法律风险要知晓

今年年初,开源AI智能体OpenClaw因图标形似小龙虾,被网友亲切地称为“龙虾”,凭借可在个人设备上本地部署、能自主完成各类指令的核心亮点,全网迅速掀起“养龙虾”热潮,成为科技圈的热门话题。这股热潮彰显了开源AI的创新活力,但潜在风险也不容忽视。
OpenClaw 爆火:人工智能从“被动应答”向“主动执行”的质变
“OpenClaw之所以能迅速‘出圈’,根本原因在于它代表了人工智能从‘被动应答’向‘主动执行’的质变。”对外经贸大学法学院副院长、教授、博士生导师张欣表示,简单来说,过去的大语言模型更像一个知识渊博的“军师”,你问什么,它答什么,事还得自己做;而OpenClaw这类智能体则是一个拥有“手脚”的“高效帮手”,你只需下达指令,它就能自己拆解步骤、调用工具、完成任务并反馈结果。
这极大地降低了人机交互的门槛,真正实现了从“对话”到“办事”的跨越,加上开源的属性,技术爱好者能自由定制。对于普通用户而言,OpenClaw像一个可以“养”在自己电脑里的“不休不眠的高效助理”,给用户提供了更高效率和依赖产生的轻松感。
全国政协委员、上海长宁区政协副主席张毅称,OpenClaw官方定位为自托管的个人AI助手平台,它突破了模型只能生成文字的限制,赋予AI“行动能力”,这使得AI不再只是一个在对话后毫无执行力的产品,而是一个能动手干活的“数字员工”。
“养龙虾”最大的误区是“把不该给的权限轻易给了出去”
“高效帮手”“数字员工”?是不是意味着装了OpenClaw后,自己不用干活了,所有工作交给它就行了?
“对于普通用户而言,在享受OpenClaw带来的便利时,必须清醒认识到,赋予一个AI程序过高的自主权限,如同将家门钥匙交给一位不知底细的‘助手’,可能引发一系列法律风险。”张欣说。
张毅将“养龙虾”的法律风险总结为四个方面:一是权限过度授予引发重大安全隐患。普通用户最容易忽视的是“为了方便直接全授权”,这看似省事,实际上是把系统控制权、账号信息和支付能力一并开放。个人信息泄露、银行卡盗刷、账号被控、自动转账,往往都与前期过度授权有关。这不是杜撰,已有人在远程授予全部系统权限后,安装包被植入木马,随即银行卡被盗刷,损失达2万多元。张毅称,“对普通民众来说,最大的误区往往不是‘不会用’,而是‘把不该给的权限轻易给了出去’。”
此外,有的用户会把智能体当作自动化抓取工具,去持续采集竞品平台的价格、商品、客户和销售数据,甚至试图绕过平台规则和基础防护。其实,“技术上能做到,不代表法律就允许”,张毅说,因为利用智能体抓取他人商业数据,妨碍平台正常运行,或者违反robots协议和平台规则,可能触及不正当竞争的风险,尤其是未经授权获取竞品的核心经营信息。所以自动化能力越强,越要守住数据获取边界。
远程部署、托管运维这类服务的风险不只是“服务质量差”或者“花钱不值”,更严重的是它可能延伸到刑事层面。张毅表示,因为有的声称“代部署”“托管运维”“保姆式教学”等的服务提供者会借部署之机植入后门、窃取数据、控制设备,甚至利用用户设备实施违法活动。如果用户对异常用途明知、放任,或者持续提供设备、账号和权限,一旦出现问题,不仅是民事纠纷意义上的“被骗了”,而是可能触及非法控制计算机信息系统、侵犯公民个人信息、帮助信息网络犯罪活动等更严重的问题。
“开源不等于可以随意复制、改写、包装和售卖。很多人把‘开源’误解成‘无主’。实际上,开源协议的核心是有条件的开放,而不是没有边界的拿来主义。”张毅说。实践中,已有相关软件侵权案例表明,即便基础代码来源于开源项目,后续形成的独创性成果仍然会受到知识产权保护。
“养龙虾”还有哪些法律风险,张欣举了几个例子。
“首要风险是隐私与数据泄露风险,这是最直接、最普遍的风险。”OpenClaw为了完成您布置的任务,需要访问您的文件、浏览记录、通讯录甚至邮箱。如果其代码存在漏洞,或被恶意篡改,如从非官方渠道下载了“加料”版本,这些高度敏感的个人信息就可能被窃取。再如,您让它“帮我总结一下最近工作邮件的要点”,它就可能读取并上传您所有的商务邮件内容,其中可能包含公司商业秘密或个人财务信息,一旦泄露,可能导致个人名誉受损、财产损失,甚至需要承担对公司的违约责任。
其次是违法操作风险。张欣解释说,智能体自主执行指令时,可能因指令模糊或自身逻辑问题,在未经授权的情况下侵犯他人权益或违反法律。比如,“您下达一个模糊指令,‘搜集关于某某公司的市场分析报告’,它可能自动爬取其他网站的有版权文章或付费数据库内容,这样就构成著作权侵权。”
此外,由于OpenClaw是境外应用,国内用户在使用过程中,不经意间输入的消费偏好、地理位置、商务互动甚至个人身份信息,都可能产生持续、分散的数据出境行为。这种行为往往游离于我们的感知之外,一旦这些敏感信息被境外主体汇聚分析,不仅侵犯了个人隐私权,更可能触碰国家数据安全的法律法规红线。
最后是行为责任归属风险。“当智能体基于您的指令实施了不当行为,如发布不当言论、进行错误交易操作并造成后果时,责任由谁承担?”张欣表示,目前法律对此尚未有清晰界定。用户作为指令发出者和工具使用者,很可能需要为AI的行为后果“买单”。“如果您让OpenClaw‘管理我的社交媒体并定期发布更新’,它若因算法偏差发布了一条含有虚假信息或侮辱性内容的帖子引发了法律纠纷,您很可能需要作为账号主体承担责任。”
“养龙虾”很好,法律风险的“坑”要避开
对普通用户来说,权限管理一定要“苛刻”。张欣建议,仅授予OpenClaw完成特定任务所必需的最小权限,不要图方便一次性开放所有系统访问权。再者,指令下达要精确。避免使用模糊、开放式的指令,尽量具体、明确,并设定清晰边界,例如“整理我‘工作’文件夹下的文档,不要动‘XX’文件夹”。此外,来源渠道要正规。务必从官方或极受信任的开源平台下载,坚决避开来历不明的安装包,从源头杜绝木马病毒。
“养龙虾”有利有弊,养好了,它是位好助手;养不好,主人就要到处灭火。怎样规避风险,张毅概括为12个字:前端严防、过程留痕、出事止损。
前端严防就是要把权限、渠道和使用边界先管住。不要轻易开放核心账户密钥、支付权限和系统底层读写权限,坚持最小必要授权,开启人工审批和操作限额;不找非官方个人或机构代装、托管,不随意开放远程控制权,插件优先选择官方认证渠道;规范使用自主执行功能,不得非法爬取竞品商业数据,二次开发和分享衍生作品时也要保留版权声明和协议原文,守住竞争和知识产权边界。
过程留痕就是要把运行隔离、备份和证据留存做好。尽量使用虚拟机隔离部署,与办公、交易、社交环境分开;定期备份重要文件和数据;同步保存运行日志、操作记录等材料,避免事后出现损害却无法还原经过、难以举证。
出事止损就是先控风险,再固定证据,后投诉报案索赔。张毅说,一旦出现盗刷、泄露、异常扣费或设备被控,应立即停权限、断网、改密码、冻结账户,防止损失继续扩大;同时完整保留聊天记录、宣传截图、转账记录、日志和损失明细等证据;再根据问题性质及时投诉、举报、报案,并依法主张赔偿。
法律有滞后性,建议加快研究出台针对智能体的监管规则
相比飞速发展的人工智能,客观而言,现有法律框架在应对此类高度自治的AI智能体带来的潜在法律风险,确实存在滞后性。传统法律建立在“人”的行为和责任基础上,而智能体的“自主性”模糊了行为主体。张欣表示,当前,我们更多是依靠网络安全法、数据安全法、个人信息保护法等原则性条款进行适用和解释,缺乏针对AI智能体权限边界、责任划分、过错认定的专门细则。
为此,张欣建议加快研究出台针对智能体这类新型智能应用的监管规则,明确其开发者的安全义务、用户使用规范,以及出现问题时各方责任的认定原则。此外,现有的数据跨境监管机制多以机构为主体、以批量传输为特征,难以覆盖高频、碎片化的个人数据出境行为。因此,相关部门应尽快出台针对高频、高价值个人行为数据出境的管理细则,增强监管的可操作性,填补法律空白。同时,希望能大力发展“监管科技”,比如利用技术手段监测异常数据流动,实现“以智治智”,解决监管能力与技术发展之间的“倒挂”问题。最后,加强全民普法教育,通过权威媒体引导公众理性选择数字服务,让每一位“养虾人”都成为知法、懂风险、会防护的负责任用户,也让公众明白数据安全不仅是个人私事,更是国家安全的组成部分。
法律的滞后性决定了法律一直在追赶科技,张毅说,“代码并非自然存在等待人们去发现,它总是被人设计出来的,而且归根到底是由我们自己设计出来的。既然如此,法律就不能只盯着技术造成的结果,还要关注技术本身是如何被设计出来的。”
为此,张毅建议,法律治理要从“事后处罚”进一步走向“前端预防”,把最小权限、默认安全、人工确认、日志留存等要求嵌入技术架构;要强化监管指引和裁判规则,把抽象法律原则变成开发者、平台和服务商能够执行的具体标准;要坚持“技术创新不能以基本核心权益让步为代价”,尤其要守住个人信息、财产安全和公平竞争的底线。(记者 徐艳红)
编辑:钱子钰

