首页>专题>第二时间
AI赋能社会
我们如何“赋善”AI?近日,一则题为《关于对张某某、李某某同志违反中央八项规定精神问题的通报》的“红头文件”在网络疯传,“文件”称某基层政府两名干部因购买方便面而被通报批评。消息迅速引发网民热议,直至当地政府紧急辟谣,才揭开这场闹剧的真相——这竟是一则由AI炮制的虚假信息。
这起看似荒诞的谣言事件,折射出AI技术迅猛发展背后的滥用歪风。多位政协委员在接受记者采访时表示,AI时代要“智”也需“治”,各方应同心同向、形成合力,进一步实现AI技术安全、可靠、可控,并最终实现“技术向善”的目标。
为何AI技术滥用的门槛如此之低?
AI“换脸”“换声”诈骗、AI仿冒名人收割流量、“AI小姐姐”虚假引流……AI技术滥用的门槛为何如此之低?
“AI技术的易用性高是其快速普及的原因之一,但这同样导致了AI技术的滥用门槛降低。”全国政协委员、金杜律师事务所高级合伙人张毅表示,从实践看,当前AI诈骗高发领域包括“深度伪造”名人肖像、虚假新闻制造、仿冒语音诈骗、针对性广告生成等。其中,图像合成、语音仿真、大模型自动生成文本技术等最易被恶意利用。
“这些技术本身具有强大的内容生成和仿真能力,一旦缺乏有效监管和伦理约束等,极易滋生违法乱象。”张毅表示。
全国政协委员、360集团创始人周鸿祎表示,目前,许多AI模型(如大语言模型)已开源,促进了安全技术的透明化和协作防御能力的提升。“但也要看到,开源也在一定程度上降低了AI的技术门槛,使得不法分子更易获取和滥用AI技术深度伪造内容、自动化生成虚假信息等。”
“随着AI工具的‘傻瓜化’和平台化,只要有基础的网络和计算机设备,几乎人人都能轻易掌握和使用这些技术生成虚假内容。这种零门槛的趋势,使技术滥用快速扩散、难以管控。”深圳市政协常委、深圳码隆科技创始人兼CEO黄鼎隆补充说。
在张毅看来,遏制AI技术滥用风险,是一道“必答题”。治理AI技术滥用恶用,需要一场从技术到监管到公民素养的全面升级。
坚持源头可控、全链条合规
如今,AI技术滥用的风险呈现多样性与多变性,这使得其治理存在诸多挑战。在委员们看来,实现“智治”与“善治”,要坚持源头可控、全链条合规。
广东省政协委员、世界数字科学院国际首席人工智能官杜兰表示,强化源头治理,需要明确平台和企业的责任。在缺乏强制法规的情况下,可以通过技术标准和行业协议自我约束。加强AI生成合成技术和内容标识管理,确保每一份AI生成的内容都能被追溯和验证。
“平台不能只把技术当流量工具,而应该主动担起‘把关人’角色,比如完善用户身份验证、加强内容审查流程、对敏感生成行为设置拦截机制等。”黄鼎隆认为,从源头治理AI技术,关键是“责任嵌入”,在算法设计和模型训练阶段引入风险评估机制,设定内容生成边界。他呼吁大型AI企业要起带头作用,推动形成“可用、可控、可信”的AI生态。
张毅进一步建议,平台和企业要将合规要求嵌入产品研发、上线、运营的全生命周期,建立算法备案、内容标识、数据溯源等机制。从制度设计上,强化“事前、事中、事后”全流程治理。在法规尚未完全配套的阶段,行业可通过制定技术标准、签署行业公约、建立第三方合规服务等方式实现自我约束。
周鸿祎认为,相关部门应及时出台配套政策措施,鼓励具备“安全﹢AI”完整解决方案的链主企业,针对人工智能应用所涉及的基座模型、知识库、智能体等安全问题,基于安全大模型技术开展研发工作,加速推动技术成果转化,将安全要素深度嵌入人工智能应用全流程。
“对AI技术的快速变化,配套措施应注重灵活性和前瞻性,建立动态调整机制,确保法律能够及时响应新技术带来的挑战。”杜兰建议。
“治理要讲究策略,可考虑优先聚焦于算法治理、(敏感)个人信息保护、内容合规标识等关键领域。”张毅表示,应构建人工智能算法治理体系,加速完善算法公开透明,并针对产业链上各主体,采取权责相统一原则,根据不同主体对于人工智能系统的控制力度来加诸相应的合规义务。个人信息方面,应完善敏感个人信息分类、授权、处理和救济机制,强化数据流通合规,明确权属与责任划分,保障公民权益不受侵害。
“要通过构建适配AI特性的监管与技术体系,实现创新与安全的协同共进。”周鸿祎认为,在监管机制层面,应遵循“敏捷治理”原则,避免“一刀切”式的强监管抑制创新活力。“具体而言,可通过建立‘监管沙盒’机制,在医疗、金融等关键领域划定特定场景,允许企业在可控范围内进行创新试点,既给予创新试错空间,又能及时发现潜在风险并调整策略。”
“AI发展必须有边界,但这个边界要有弹性、有前瞻性。”在黄鼎隆看来,AI治理机制要具备动态调整能力,定期评估、及时修订。“只有做到既能保护底线,又能释放活力,AI才能在规则中持续创新,在信任中加速前行。”
用AI技术监管AI应用
委员们认为,AI技术滥用是与技术进步伴生的问题,同样可以将人工智能技术运用于人工智能监管,形成政府监管与市场自律协同的治理生态。
周鸿祎建议,在技术层面,采用“以模制模”的方式,如开发大模型内容安全护栏系统等,打造全流程、多种类、多模态、场景化的内容安全体系。“还可从技术层面整合多领域精品知识库,实现全网与私域知识的无缝对接,提升信息获取效率。同时,可以通过精确的知识整合,帮助大模型缓解幻觉问题,减少虚假或不准确信息,提升大模型的可信度与可靠性。”
“当前,主流检测手段包括数字水印、内容溯源、深度伪造检测等技术,准确率随着技术进步不断提升,但仍面临模型变异、跨平台兼容等挑战。”张毅对此建议,持续推动技术创新,完善检测工具,加强国际技术合作,提升整体防控能力。
“AI技术被滥用来制造虚假信息,背后反映的是公众对信息真实性的焦虑。应从技术层面加强监管,同时从社会层面提升公众的媒介素养,让每个人都能成为信息的‘守护者’。”杜兰说。
张毅表示,网民应更多关注权威媒体信息,警惕那些过于离奇、煽动性强的音视频内容,谨慎转发未经证实的信息,遇到疑似AI合成内容时可通过“反向搜索”等方式辅助识别。此外,国家互联网信息办公室、工业和信息化部等相关部门应合力推动AI标识技术落地,帮助公众更便捷地识别AI生成内容。
在委员们看来,整治AI技术滥用,并不是反对AI技术应用,而是做到鼓励创新与防范风险的平衡。
张毅认为,除了加强技术监管,还应完善立法。目前,随着《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《人工智能生成合成内容标识办法》等制度的陆续完善,整治AI技术滥用的法治基础更加坚实。但这还不够,应加快人工智能法立法进程,坚持以人民为中心,以保障人的主体地位、保护人的权益为底线,确定“包容审慎”的监管原则。既要防止“一刀切”抑制创新,也防范监管真空带来的系统性风险。可以根据AI技术应用风险和场景,实施分级分类的监管,低风险领域简化监管,高风险领域强化合规和审查;针对人工智能动态发展特性,设置“领域接口条款”,为技术迭代和产业创新预留调整空间。
据了解,AI技术滥用已经得到相关部门的高度重视。今年4月,中央网信办(国家互联网信息办公室)启动“清朗·整治AI技术滥用”专项行动。3个月来,聚焦AI换脸拟声侵犯公众权益、AI内容标识缺失误导公众等AI技术滥用乱象,已处置账号3700余个。
张毅表示,当前AI治理既是全球性课题,也是数字中国建设的重要内容。“相信在国家政策引领、法律制度完善、技术创新驱动下,社会各界共同努力,一定能够实现人工智能‘向善而行’,更好地服务人民、造福社会。”
(记者 周佳佳 李敏杰)
编辑:实习生 李军(辅导老师:李敏杰)