首 页 社会聚焦 社情民意 民意时评 创客说 乐观社会 画里有话 滚动资讯

首页>社会>社会聚焦

让AI成为心理健康的守护者

——访心理学专家林丹华、邓丽芳

2025年08月25日 13:54  |  作者:杨岚 贺春兰  |  来源:人民政协网-人民政协报 分享到: 

近年来,随着人工智能技术的快速发展,从能为患者提供专业心理干预的北京大学第六医院“北小六”人工智能(AI)心理服务机器人,到陪伴学生聊天的AI智能体,AI正以多元形态深度融入心理学领域。

然而,行业标准缺失、隐私泄露风险、未成年人保护漏洞等问题也逐渐显现。AI如何真正成为心理健康的守护者?近日,两位高校心理学专家向记者分享了他们的观察与思考。

▶▶▶ AI在心理学领域的应用趋于成熟

“最近压力太大,和手机里的AI聊了聊,居然轻松了不少。”近年来,这样的体验正从少数人的尝试变成越来越多人的选择。

北京师范大学心理学部教授、中国健康促进与教育协会心理健康教育分会主任委员林丹华介绍,目前,AI在心理学咨询领域应用正向成熟化方向发展,既有纯AI咨询机器人,如北大六院的“北小六”,侧重解决精神障碍层面问题,语料库更专业,也有科大讯飞等企业针对中小学的聊天智能体,咨询成分少而聊天功能突出,同时还有人工咨询结合AI辅助的模式。应用载体从实体机器人发展到手机软件,手机端因便捷性逐渐普及。

北京航空航天大学人文社科学院教授、心理与行为研究中心主任邓丽芳则关注到,目前AI通过文本、语音、面部表情等多模态数据,已能辅助评估用户心理状态,而虚拟聊天机器人、AI玩偶等,通过植入心理咨询范式,能提供倾听、共情等基础服务。“不过,AI目前在心理学的应用更多是辅助的角色,它的共情是程序化的,复杂心理问题的诊断,还需要依靠专业人士。”邓丽芳补充道。

“在心理健康科普领域,AI的潜力更为凸显。”如今,林丹华团队正在推进“AI﹢知识图谱”心理健康教育科普平台项目,该项目已获国家心理健康和精神卫生防治中心重点课题支持。林丹华谈道,“现在的心理科普太碎片化,刷短视频看到的内容可能片面甚至不科学,专业人士的科普又触达有限。我们搭建的平台将整合顶尖专家的科普讲座,通过AI剪辑成专业短视频,链接到知识图谱的不同节点,比如‘抑郁症’节点下,有不同专家讲解病因、干预方法的片段,保证知识系统全面。平台开放后,用户先做测评,系统再推送匹配的内容,如可为健康人群解答育儿等日常心理问题,为有精神疾病患者的家庭提供心理照护知识,为有慢性病人群提供自我关怀技巧等。未来,我们还会把专家讲座智能化、动画化,以适应不同人群的需求。”

▶▶▶ 技术的温度需要规范守护

“AI为心理学带来的,不仅是技术革新,更是资源普惠的可能。但技术的温度,还需要规范来守护。”林丹华坦言,目前,AI心理产品的标准建设仍处于起步阶段,国家标准化管理委员会正在论证的“人工智能辅助心理咨询服务”国家标准尚未落地,团体标准和企业标准也多在探索中。即便出台,执行落地同样是关键。

邓丽芳从技术底层逻辑提出担忧:“AI心理产品的测评工具来自哪里?是否经过科学验证?”她举例,若将成年人的抑郁量表直接用于未成年人,或用未经验证的“情绪判断算法”评估学生状态,可能导致误判。

对此,两位专家均提出,AI心理产品的标准制定需明确产品的核心内容,界定服务范围和关键术语,为用户列出规范性文件和基本原则,明确服务人员资质,同时规范服务流程,加入风险管控内容等。标准落地可将合规性与工商资质挂钩,明确监管主体,比如教育部门对学校使用的AI测评工具进行备案审查等。

隐私泄露同样是AI心理产品的突出隐患。林丹华特别提到,要警惕“无感采集”,用户在不知情的情况下,被收集面部表情、身体姿态等非言语信息,这些数据一旦泄露或被滥用后果严重。她建议,企业需从系统安全测试、定期监控审查、数据备份恢复等方面建立全流程安全机制,可借鉴其他领域的成熟经验。

“对用户而言,提升防范意识同样重要,使用产品前一定要确认企业是否有保密承诺,是否存在无感采集。”邓丽芳举例,线下心理咨询前需要签署知情同意书,线上AI也该如此,比如明确告知“您的聊天记录将加密存储多少年,仅用于优化服务”,用户同意后才能使用。

“如果用户跟AI说‘想自杀’,AI是该预警还是保密?预警可能侵犯隐私,让用户不敢再倾诉;不预警则可能错失干预时机,然而这一问题在行业内仍无共识。”邓丽芳建议,可设置“紧急例外条款”,如用户明确提及自杀计划时,自动联系预设的紧急联系人,但具体执行仍需要法律明确界定。

林丹华在法律层面则呼吁,应明确AI心理数据的权属和保护范围,比如禁止未经同意的跨平台共享,对无感采集设立惩罚性赔偿等,提高企业违规成本。

邓丽芳聚焦未成年人心理数据的采集与使用时建议,未成年人测评需实行双同意规则,不仅要让孩子自己同意,更要监护人签字确认。此外,测评内容和结果解释需格外谨慎,不能将成年人标准套用于孩子身上。

此外,两位专家均认为,企业责任不可或缺,对未成年人使用的AI心理产品,应强制要求“内容审核”。学校采购AI心理产品时,应优先选择有专业背景的团队研发的工具,才能让AI真正成为守护未成年人心灵的重要力量。(记者 杨岚 贺春兰)

编辑:廖昕朔