首 页 要闻 资讯 法治时评 法治人物 法律速递 盈科说法 美好生活·民法典相伴

首页>法治>要闻

原创内容被判定AI生成,用户诉平台胜诉

——张毅委员解读AI治理边界

2025年09月11日 09:20  |  作者:徐艳红  |  来源:人民政协网-人民政协报 分享到: 
2025年9月1日,《人工智能生成合成内容标识办法》(以下简称《标识办法》)正式施行,AI生成内容(AIGC)进入“强制标识”治理新阶段。近日,北京西城区人民法院审结全国首例“用户原创被判定AI生成”纠纷——用户发布的即时感悟被平台认定违规并隐藏、禁言,诉至法院后终获支持。这起案件如何划定平台治理与用户权益的边界?《标识办法》落地后,用户与平台该如何规避纠纷?带着这些问题,本报记者专访了全国政协委员、金杜律师事务所合伙人张毅。

原创被控AI生成,举证责任成胜负关键

记者:张委员,首先能否请您结合案情,为我们梳理这起纠纷的核心脉络?

张毅:这起案件的案情其实很典型,核心是“用户主张原创、平台认定AI生成”的对抗。原告是某平台用户,去年9月发布了一段即时感悟,内容是关于打工视角和学车建议的生活化表述,结果被平台判定为“包含AI生成内容但未标识”,不仅隐藏了内容,还对账号禁言1天。原告申诉无果后起诉,要求撤销处理、删除后台记录。

记者:平台当时是如何抗辩的?他们认为自己的判定有哪些依据?

张毅:平台主要提了三点理由:一是合同依据,说社区规范里明确约定“创作者发布AIGC需主动标注,未标注可限制流量”,用户注册时已确认,平台有权处理;二是技术支撑,称内容先经自研“深度合成算法模型”识别为AI生成,再经人工复核,复核认为内容“缺乏明显人类情感特征”;三是算法豁免,主张算法逻辑是技术秘密,无需向用户披露,且模型准确率没问题,判定客观。

记者:最终法院判决平台违约,撤销了相关处理。法院作出这一判决的关键考量是什么?

张毅:法院的核心逻辑是“平衡权力与权利”,重点突破了三个关键点:第一,原告无需举证——涉案内容是即时性创作文本,客观上拿不出草稿、源文件这类传统证据,要求他举证既不现实也不合理;第二,平台需承担举证责任——平台既是算法掌控者,又是结果判定者,处于优势地位,不能只说“算法识别”就免责,必须解释“为什么认定是AI生成”;第三,人工复核无效——平台说“要有非常明显的人类情感特征才驳回算法结果”,这个标准完全是主观判断,没有科学依据,说服力不足。最终法院认定平台处理“缺乏事实依据”,判决撤销内容隐藏、删除后台记录,只是因为禁言已经执行完毕,才驳回了其他诉求。

争议本质是AI治理中权利边界划分

记者:您认为此案最核心的争议点是什么?它为AI内容治理划定了哪些司法标尺?

张毅:争议本质是“AI治理中,平台权力与用户权利的边界划分”。这起案件至少明确了三个关键规则,对后续同类纠纷有很强的参照意义:

第一,平台处理的合法性不能只看“有约定”,还要看“执行合法”。平台的社区规范虽然符合《互联网信息服务深度合成管理规定》,但判定过程不透明、解释不到位,就算有合同约定,也可能构成违约。

第二,举证责任要向“优势方”转移。过去可能默认“用户要自证原创”,但此案明确,当用户客观无法举证时(比如即时创作),举证责任会转移到平台身上——谁掌握技术、谁判定结果,谁就该证明判定的合理性。

第三,“算法解释义务”是底线,不能用“黑箱”当挡箭牌。平台可以不披露算法核心代码(商业秘密),但必须说明“判定AI生成的关键依据”,比如“算法主要看句式重复性、情感词密度”,不能只说“算法这么判的”就完事。这一点尤其重要,相当于给平台的AI判定权套上了“透明枷锁”。

记者:对普通用户来说,未来在创作和发布内容时,该如何避免被误判为AI生成?需要提前保留哪些证据来“自证清白”?

张毅:用户要做好“合规﹢留存”两件事,这是最实用的防范措施。

先说合规创作:一是严格遵守《标识办法》,只要内容里有AI元素,哪怕只是用AI改了个标题,都要按平台要求标注,别抱侥幸心理;二是仔细读平台协议,搞清楚平台定义的“AI生成”到底包括什么,比如有的平台把“AI辅助修改”也算进去,避免因为理解偏差踩坑;三是如果平台有“非AI生成”声明功能(比如勾选框、标签),纯原创内容建议主动标上,万一后续有争议,这就是初步证据。

再说说证据留存,核心是“记录创作过程”:如果是即时创作,比如发个短评、朋友圈,能录屏就录屏(记录输入过程),或者截图保存编辑日志,甚至发布时多写一句创作背景,比如“今天加班后有感而发”,这些都能佐证是人类创作;如果是长文、文案这类非即时创作,一定要保留草稿文档(带修改痕迹的)、灵感笔记,用写作软件的话就开“操作日志”功能;要是真遇到争议,和平台沟通、申诉的所有记录(聊天记录、回执)都要存好,别等需要时找不到。

记者:平台这边其实也有难处,用户量大、监管任务重,很容易出现误判。您认为平台该如何平衡“履行监管责任”和“避免误伤用户”?

张毅:平台确实不能“不作为”,也不能“乱作为”。此案里平台“先机器识别、后人工复核”的流程,其实是符合《标识办法》精神的,但问题出在“流程空转”——机器算法不透明,人工复核又太主观,导致误判风险升高。我建议平台从三个方面优化:

第一,算法要“有限透明”。不用披露核心技术,但要公开AI识别的“核心考量因素”,比如告诉用户“我们的算法主要看这几点:句式是否重复、有没有个人化经历、情感表达是否连贯”,还要定期公示模型准确率,比如每季度发个抽检报告,让用户知道算法的可靠程度。

第二,标准要“客观可验证”。别让复核人员凭感觉判断,要制定《AI内容识别指引》,明确“什么样的特征算AI生成”,比如“连续3句句式结构高度一致”“全程没有具体人名、地名等个人化信息”,把主观标准变成客观指标,减少人为偏差。

第三,申诉要“规范高效”。给被判定违规的用户开专门的“举证通道”,允许提交创作证据,比如草稿、录屏,还要规定反馈时限,比如“7个工作日内给结果”,并且必须书面说明“为什么维持或撤销判定”,不能只给个“申诉失败”的结论就完事。

《标识办法》为构建更规范的AI内容生态提供了指南

记者:《标识办法》已经正式施行一段时间了,从实践层面看,您对用户和平台还有哪些更具体的行动建议?

张毅:对用户来说,核心是“主动合规和理性维权”。一方面,发布内容前先“自查”,确认有没有AI元素,避免“无意识违规”;另一方面,真遇到误判,别上来就情绪化对抗,先通过平台申诉通道提交证据,要是申诉没结果,还可以向网信部门投诉,或者依据《民事诉讼法》起诉,用合法途径维权,这样效率更高。

对平台来说,要从“单一治理”转向“治理服务”。过去很多平台是“以罚代管”,只想着查违规、做处罚,其实更应该做的是“防患于未然”:比如开发“AI内容预检测工具”,让用户发布前能自己测一下,看看会不会被判定为AI生成,提前调整;再比如定期培训审核人员,统一复核标准,避免“同一段内容,不同审核员判出不同结果”的情况。平台的核心责任不只是“抓违规”,更是“保障原创权益”,这样才能构建更健康的内容生态。

记者:最后,您觉得这起案件的判决,对未来AI内容治理有什么长远意义?

张毅:这起案件最大的意义,是在技术快速发展和法律相对滞后的间隙,划出了一条“平衡线”,既肯定了平台的AI治理责任,也保护了用户的原创权益。随着AI技术越来越普及,类似纠纷只会更多,而这起案件的判决,相当于给所有平台和用户都立了“规矩”:平台不能凭“算法黑箱”随意定责,用户也要主动合规、留存证据。这对推动《标识办法》落地、构建更规范的AI内容生态,都有很重要的示范作用。

编辑:钱子钰