学习笔记:关于 AI 在心理咨询领域的应用

这是一个新的系列的尝试,就是会在我主理的播客上更新一系列不请嘉宾的播客。主要由我和另外一位主播通过相互提问和 deskwork 的方式来完成播客。

同时,我会把这类播客节目筹备期间搜集到的资料整理成文字沉淀到博客里。如果你对这个主题仅仅是满足好奇心,那么也许还是听播客的效果好一些。

第一期的内容是 AI 在心理学上的应用,我最早关注到这个领域是因为我曾经被确诊过焦虑症,在那之后就一直比较关心这个领域。在 2021 年的时候,我也做过一期播客,当时是邀请了西湖大学蓝振忠教授来做嘉宾。兰教授的实验室在 2020 年,也就是疫情第一年的时候推出了一个 AI 心理咨询机器人“小天”。

这个机器人的运作方式,是通过大量的心理咨询的语料样本,为对话作出预测,然后由人类心理咨询师在机器有限选项中给出一个答案发送给受访者。

用更通俗的话说,就是像一个心理咨询版的淘宝客服辅助系统,当受访者向咨询师发送对话的时候,机器先进行分析然后从已有的语料库中选择最有可能符合当下情况的回答,再由人类确定后发给咨询者。这种模式在此轮大语言模型爆发(2022 年 10 月)之前,其实已经非常成熟。

在当时的 AI 水平线上,这样的机器辅助能够让一位心理咨询师同时为 3 位受访者做咨询,并且干预间隔达到了 200 分钟。也就是平均每 4 次完整地咨询, 才会出现一次需要人工心理咨询师干预 AI 对话的程度。

3 年时间过去了,尤其是在 2022 年,AI 领域迎来了大预言模型的新革命,在以话疗为主的心理咨询这个领域发生了哪些变化,我刚好有兴趣做一下系统性的知识更新,于是就做了这期博客/文章。

背景性问题

心理咨询算是医疗行为吗?

直接答案:在中国,不算。

展开来说:

在 2024 年此刻的中国大陆, 心理咨询没有硬性从业门槛。2017 年以前,人社部会组织心理咨询师资格考试,并为通过考试者授予“心理咨询师资格证书”。但这也与医师资格证有着较大的区别,无证咨询在中国大陆始终不被认为是非法行医,也就是从始至终该行业没有硬性的“准入门槛”。

在 2017 年人社部取消了该考试及对应的资格证后,大陆的心理咨询进入了野蛮生长的阶段。也就是自学了一定的心理咨询知识之后,你也可以在小红书上开个号接单。

同时,心理咨询师没有诊断权与处方权,这是只有“精神科医生”才有的权利。而精神科医生则需要经过完整地医学训练,并最终取得行医资格证,在正规医院坐诊才可以行使自己的诊断权与处方权。

也就是心理咨询师不能确诊“你这就是焦虑症或抑郁症”,但如果你已经是焦虑症或抑郁症,院外心理咨询师同样可以给你进行心理咨询。

另外,院内持行医执照的精神科医生,不一定比院外的心理咨询师更专业。因为心理学及临床心理学,并非中国精神专科医学生的必修课。一般来说,精神科医生如果想要在院内开展心理咨询,要么是他/她在医学院期间选修了心理学双学位,要么是在工作后自学了心理学相关的知识。

做一下简单的表格区分:

可以诊断吗?可以开药吗?可以咨询吗?
精神科医生(院内)可以可以不一定
心理治疗师(院内)可以可以可以,但不一定有院外的咨询师专业
心理咨询师(院外)不可以不可以可以,但质量良莠不齐

心理咨询无门槛这件事,对于很多没有做过心理咨询,甚至是正在做心理咨询的人来说可能都是个知识盲区,甚至可以用乱象来形容,但这也是需求重压下的无奈导致的。目前,大陆对已确诊的精神障碍症患者还是以药物治疗为主,因为可想而知的,心理咨询与治疗的效果、周期、成本都远大于药物,根本不可能满足国民心理健康的需求。

在美国的部分州,心理咨询被认定为行医,需要取得医师资格证,或完成相关的考试包括国家咨询师考试(NCE)或国家临床心理健康咨询师考试(NCMHCE)。但这催生了欧美的灵修市场的蓬勃发展,欧美的许多新兴宗教和禅修机构都在使用非常标准的认知行为疗法对教众进行疗愈,但一旦使用了宗教术语进行包装,即可规避心理咨询所需的相关资格证。

心理咨询的市场有多大 ?

按照联合国的数据,2019 年时,全球的精神障碍症发病率为 1/81。是的,这个数字甚至不是百分数。也就是按照当时的人口统计,约有 9.7 亿精神障碍症患者。在新冠爆发后,全球焦虑症和重度抑郁症患者分别增加了 26% 和 28%。

在国内,最后一次大样本公开调研是在 2009 年2,根据 63004 位 18 随以上居民的调研显示,约有 17.8% 的社区居民具有精神障碍症。以此流行病调查结果推算,当时我国成年人中有约 1.7 亿人存在某种形式的精神障碍。

但在 2021 年,国内最大的连锁精神病院康宁医院上市的招股书引用类似数据时,曾被相关部门警告这一数据存在误导。后修正为卫健委的口径,也就是截至 2016 年底,全国在册严重精神障碍患者已达到 540 万例。以精神病院为业态,这个数据确实更为合理。因为大多数轻度,乃至中度的精神障碍症患者,实际上是不会对社会造成危害,并且有可能在非医院治疗下自愈的。

由于国内的正规精神卫生系统以药物治疗为主,所以并非所有确诊精神障碍症的患者都在进行心理咨询。同时,由于心理咨询在精神健康方面有预防保健的作用,其实也并非所有去心理咨询的都是确诊患者。

那么,我们仅就“心理咨询”这个业务的角度来说,目前可查到的口径是这样的:

2020 年市场规模达到了 490.5 亿元 ,2021年约为 557.8 亿元,2022 年预计达到 638.1 亿元,年增速在 60~70 亿元左右3。并且它的年人均消费达到了 5944.6 元。如果用两组数据计算一下,我们就可以知道目前国内大约有 1000 多万左右的付费心理咨询用户。

虽然我很鄙视这种以欧美和日本作为参照系的市场对比法,但在心理咨询市场这一块,目前国内的市场规模还远远“落后于”欧美和日韩市场。并且这种落后并非大家的精神状态都很好,而很有可能是讳疾忌医和收费过高导致的。

在现有的行研中,心理咨询市场主要的玩家被分为四类:互联网心理咨询服务商(壹心理、简单心理等)、传统心理咨询服务商、EAP 服务供应商(Employee Assistance Program)和其他。

但这个分类方法可能有较大遗漏,由于心理咨询从业门槛几近于无,这两年在抖音和小红书上有海量的个体心理咨询师接单,并且他们价格不菲,总体体量并不适宜被归类到“其他”中。甚至在某种程度上,互联网心理咨询服务商正在遭受到此类个体咨询师的冲击,因为摆脱中介性质的机构之后,个体咨询师能够在定价权和工作时间上更为灵活,还能在营业过程中积累更多的个人品牌。

AI 在直接 to C 的心理咨询服务中可以有较高的介入,尤其是对于名不见经传的新手心理咨询师来说,可以在 ChatGPT、Claude 和 Gemini Pro 的辅助下,通过恰当的 prompt 为受访者提供远超过自身水平的心理咨询服务,有助于缓解当下国内心理咨询从业门槛过低带来的质量良莠不齐问题。

另外,这个分类方法不包含院内咨询,医院内的心理治疗也是重要的市场之一,这一部分 AI 无法从 C 端切入,但可以通过医疗辅助技术供应商的形式从 B 端切入。比如美国的医疗 SaaS 公司 Amwell 的子品牌 SilverCloud Health 就试图帮助精神卫生机构在院外与患者保持联络并提供 AI 辅助。

心理咨询在做什么?(或,大致分为哪几个环节)

这是要了解 AI 如何介入心理咨询的最后一个背景部分,也就是我们需要知道心理咨询究竟是在做什么。以认知行为疗法为例,一个完整地心理咨询或治疗,通常分为 7 步:

  1. 初评阶段
    • 目标:建立治疗关系,评估个体的问题、症状及其背景。
    • 内容:咨询师会了解来访者的主要困扰、生活状况、既往心理健康史等,初步评估适用于CBT治疗的问题。
  2. 设定治疗计划与目标
    • 目标:与来访者一起确定具体、可衡量的短期和长期治疗目标,以及治疗计划。
    • 内容:明确治疗期望,比如减轻焦虑症状、改善人际关系、增强自我管理能力等。
  3. 认知和行为评估
    • 目标:通过反复的话疗,识别和评估不健康的思维模式和行为习惯。
    • 内容:通过对话、作业和观察,咨询师帮助来访者识别负面思维(如灾难化、过度概括等)和行为(避免、冲动行为等)。
  4. 认知重构
    • 目标:修改不合理的思维模式。
    • 内容:教授来访者识别、质疑和修改负面思维,采用更加现实和积极的思维方式替代。
  5. 行为干预
    • 目标:改变不健康的行为模式。
    • 内容:使用各种技术,如曝露疗法、行为实验、角色扮演等,以改变行为,提高应对技能。
  6. 技能培训
    • 目标:增强自我管理和问题解决的能力。
    • 内容:教授时间管理、压力管理、人际交往等生活技能。
  7. 维持进步和预防复发
    • 目标:巩固治疗成果,预防未来的复发。
    • 内容:回顾治疗过程中学到的技能,讨论如何在未来遇到困难时应用这些技能,可能会制定一个“预防复发计划”。

实际过程中,因为大部分来访者都同期使用药物治疗,且受制于心理咨询的高昂价格,所以可能走到第五步就算完了。

AI 如何介入心理咨询行业

从角色入手:

1. 辅助现有的心理咨询

也就是在整个心理咨询的环节中,不替代人类心理咨询师的角色,而只是辅助后者进行一些繁琐的工作。

在本轮 AI 浪潮来临之前,就已经出现了很多这样的工具,去减轻心理咨询师的工作。比如,在本文开头,也就是 2021 年播客时提到的辅助型聊天机器人就是一种,它可以让一个人类心理咨询师高强度的和几个受访者进行轻度的心理咨询。

退一步,AI 还可以用于整理病历和精神分析,后文提到的 Lyssn 就是这种模式——你作为人类心理咨询师与受访者进行了一次 1 小时话疗,如何从这次话疗中摘取有用的信息填到对应的表格里进行分析,同时推进下一步的治疗,这个过程是可以由 AI 来完成的。

2. 直接替代人类心理咨询师展开心理咨询

在本轮 AI 爆发之后,这是新的主要形态。

由于心理咨询本质上是一个按照心理学利用、利用心理学工具、通过不断对话进行治疗的活动,因此“对话机器人”可以介入心理咨询的完整流程。

尤其是考虑到实际上心理咨询并不是随意聊天,而是遵循特定的方法进行“有套路”的聊天,因此 AI 在这一方面的表现甚至可能比新手心理咨询师更好。

从环节来说:

事前评估:

AI 聊天机器人可以作为预咨询及分诊操作,在人工或进入正式的心理咨询之前,搜集受访者的必要信息,通过谈话对的受访者所遭受的负面情绪或精神障碍症进行分型,给人工心理咨询师或AI 心理咨询师制定治疗计划提供依据。

事中对话:

AI 聊天机器人可以直接通过文字对话的方式对受访者展开心理咨询,其优势是可以与各种信息化的心里工具进行联动。比如 Wysa 就收录了超过 150 个心理学工具,会根据受访者在对话时的情况,实时给出对应的工具,受访者可以在手机中直接使用,并且分析结果会被直接代入到后续的对话中,比人工心理咨询师更为高效。

事后评估:

人类心理咨询师的一项重要工作是在话疗工作后进行病例分析。也就是咨询师与受访者聊 1 个小时,心理咨询师需要从这 1 个小时的聊天记录中摘取对当下和后续治疗有价值的信息进行摘要、归纳并计入受访者的咨询记录。

在 AI 介入之后,这部分可以被高程度替代。尤其是对于直接替代心理咨询师的 AI 聊天机器人来说,患者的完整咨询记录被数据化存储在 Context 中,可以在后续的咨询中无脑调起。在恰当设计记忆归档和 RAG 机制的情况下,可以有效避免受访者需要反复向咨询师提起已经说过的问题的现象。

知识共享:

心理咨询师的水平与他曾经提供过的咨询量直接相关,而一个 AI 心理咨询师在这一点有着人类心理咨询师不可比拟的优势。AI 心理咨询师每一次与受访者对话,都能为其数据库和后续模型提供一次有效的实践积累。

在现阶段,AI 心理咨询机器人不太可能是由独立的大语言模型驱动,它要么是采用 GPT、Gemini、Claude 这样的商用 LLM API,要么采用 Grox、Llama 和 Mixtral 这种已经训练好的开源 LLM。在其上,可以采用 fine-tuning、knowledge base 和 agent 的方法叠加心理咨询领域的知识。

其中的主要应用方法可能在这四个方面:

context存储当下受访者的信息与咨询记录。
fine-tuning语言学训练,让基座模型能以“心理咨询师的语气和话语”来进行对话。用通俗的话说就是更暖心、更正能量、更具引导性、避免那些在心理咨询领域不适用的话语。
knowledge base关于心理学的理论知识和已经被结构化的匿名化病历。其作用在于实际指导 AI 如何开展心理咨询。
agent前端的 AI 聊天机器人需要有能力调起心理学工具(比如一些量表、画布),并且能够指挥其他环节的 AI 工作(如归档和压缩过长的聊天记录,总结有用信息)。

AI 心理咨询对比人类心理咨询有什么优势

1. 与人类心理咨询师相比,AI 心理咨询师的培养边际成本约为 0

在不考虑简单读两本书就在社交平台接单的情况,做一个专业的心理咨询师的培养成本还是非常高的。

对比之下,AI 具有一次训练无限次服务的特点。并且,AI 的数据积累同样可以在咨询过程中完善,其整体进步速度也比个体咨询师更快。

因此,从供给端来说,AI 心理咨询能够大幅降低中低层次心理咨询的成本。而由于心理咨询有精神健康的预防保健作用,当大众可以获得便宜的早起心理咨询的情况下,精神健康的整体公共卫生支出都会有所下降。

2. 大样本研究成为常态

个案研究将成为历史或辅助,理由同上。

3. 24 小时供给,启动门槛低

AI 心理咨询往往以线上启动,24 小时可获得,免费启动为主。

这意味着大大降低了心理咨询的启动门槛,让那些仅有负面情绪,未达到精神障碍症程度的人也得以低成本的获得心理咨询服务。这可以缓解情绪压力,减少对更高阶心理咨询、药物治疗和正规医疗系统的需求。

AI 心理咨询目前的发展状况如何?

按照我的判断:

尽管距离 LLM 革命仅一年有余,但目前 AI 心理咨询是少有的,已经达成 PMF(Product Market Fit)的市场。

但该市场本身仍然处于比较早期,成长空间较大。目所能及,市场中玩家较少,少数玩家也未能达成赢家通吃,并且在产品上仍然比较早期。然而,尽管在这种产品不成熟的情况下,各玩家的业务情况和融资情况都非常不错。

心理咨询市场一般也分为 To C,To B,To G 三个方向。

也就是说,心理咨询服务商可以直接向终端用户售卖咨询服务,也可以作为 EAP(Employee Assistance Program)服务商向企业提供员工关怀服务,再有就是可以与公共卫生体系达成合作,作为“处方”的一部分。

在这三个领域,目前都有一些成功案例,下面我们就讲三个:

Wysa

Wysa 是一家致力于填补日常心理健康空白的科技公司,成立于 2015 年,总部位于波士顿。

主要业务形态:

Wysa – 通过一个聊天机器人来为受访者提供心理学工具,并基于 AI 来长期跟踪受访者的精神健康状态,并随时调整自己的策略。

其采用多种收费方式,在 C 端,它将 AI Bot 作为入口,售卖包月人工咨询师服务。 在 G 端,它提供 NHS Digital Front Door(国民保健数字前台)服务,也就是帮助公共医疗卫生系统进行就医前咨询、分诊和信息搜集。

它正在计划推出完全由 AI 驱动的高级心理咨询和心理咨询师的 AI Copilot,但目前尚未实装。

亮点:

  • Wysa 提供 7*24 小时的对话服务,用户可以随时发起咨询,分享或发泄自己焦虑、压力和情感问题。
  • Wysa 可以提供完整、实时和结构化的 CBT(认知行为疗法)练习。
  • Wysa 还内置了超过 150 种经过循证医学验证有效的心理学工具和练习,聊天机器人会根据用户当下的情况抛出对应的工具,并对练习结果进行评估。

创始人背景:

Wysa 由印度裔女性创始人 Jo Aggarwal 创办,她此前曾任 Pearson Learning 的国际总经理和技能和招聘公司 Silatech 的创始总监,因此她的主要背景其实是职业在线教育。

Jo 创办 Wysa 源自于她自身曾与抑郁症战斗,在治疗抑郁症的过程中,她发现 CBT 是一种有效的疗法,并且该疗法是可以通过训练和学习进行自我治愈的。于是她决定要做一个 App,帮助人们学习和使用 CBT。

成绩:

Wysa 在 2022 年 7 月获得 B 轮融资,由 HealthQuad 领投,British International Investment (BII) 、W Health Ventures, Kae Capital, Google Assistant Investments 和 pi Ventures跟投。

截至目前,它已服务 95 个国家 500 万人,进行了超过 5 亿次对话。

WoeBot Health

WoeBot Health 是一家成立于 2017 年的人工智能心理健康公司,总部位于旧金山。它的目标是为企业提供可规模化的员工心理健康解决方案(Scalable Enterprise Solution for Mental Health)。他们公司首页的一句话,可以非常完美的概括 AI 心理咨询在未来的优势:Mental health needs have multiplied. Support hasn’t. Until now. (心理健康的需求成倍增长,供给却没有。直到此刻。)

主要业务形态:

WoeBot – 一个基于 AI 的 CBT 聊天机器人,企业雇员在购买服务后,雇员可通过该 App 进行心理健康评估、CBT 练习或获取 24 小时的情绪支持。

它目前仅向组织、机构和公司提供服务,后者可以按自己的需要购买对应的服务。

创始人背景:

WoeBot Health 的创始人兼首席执行官 Alison Darcy 是一位临床心理学家和计算机科学家。她拥有斯坦福大学心理学博士学位和麻省理工学院计算机科学硕士学位。Darcy 在心理健康领域拥有多年的研究和实践经验,她致力于将人工智能技术应用于心理健康服务,以帮助更多人获得心理健康支持。

成绩:

2022 年,Woebot Health 宣布已完成 9000 万美元的 B 轮融资,该轮融资由现有投资者 JAZZ Venture Partners 和淡马锡共同牵头,BlackRock Private Equity Partners和Owl Ventures参与其中。其他参与者包括Mirae Asset Capital、Kicker Ventures、Alumni Ventures 和 Gaingels,以及现有投资者 NEA 和 AI Fund。

Woebot Health 还致力于验证自己产品的有效性,在其官网上,目前已经公开了 14 项证明其产品有效的临床研究论文4。上线至今,为超过 150 万人提供了相关服务。

Lyssn

Lyssn 成立于 2017 年,是一家 AI 驱动的心理咨询辅助系统提供商,它的目标是科学的测量、跟踪和反馈心理咨询。

主要业务形态:

为心理咨询机构提供在线咨询工具,这些工具可以嵌入到传统的咨询流程中,如在线会议、简讯、语音通话等。但同时,它与 Lyssn 的 AI 工具无缝衔接,可以实现本文其他部分提到的文本整理和 AI 评估功能。

亮点:

该公司早在 LLM 革命之前的 2018 年就开始利用大语言模型进行是文档整理和 AI 评估。根据网上的资料显示,该公司使用的语料来自 2.1 万次真实心理咨询的对话样本,是同类型产品中的最大数据集。但这个样本对于训练一个 GPT-3 或 4 级的对话机器人来说可能还是有些困难,所以他们才没有提供直接对话的 AI 心理咨询服务。

创始人背景:

该公司是由心理咨询师 Zac Imel 和机器学习专家 David Atkins 联合创办,它们早起采用 NLP 来训练他们的 AI 工具。

不足

尽管如此,AI 心理咨询仍然有一些不足,它主要体现在以下三个方面:

  1. AI 不应被用于紧急救助,因为这涉及医学伦理问题。如果 AI 未能在紧急情况下未能做出恰当的引导行为,其责任或其公司的责任是否能获得豁免权,仍然是一个需要被讨论的问题。
  2. AI 在短期内无法解决具身问题:心理咨询或心理治疗在许多时候需要更为立体的交互,心理咨询师与受访者之间需要有面部、表情的交流,并且双方要能表达和听懂彼此的语气和潜台词,另外心理咨询的场所可能也是心理咨询的一部分,比如在森田疗法中,场比内容本身更为重要。这在长期内可能被虚拟人和 Apple Visinn Pro 来解决。
  3. AI 心理咨询的进步成本取决于数据的可获得性,而咨询数据的去匿名化与共享会产生多重隐私挑战。也就是,如果我们期待一个 AI 能够通过每一次咨询的记录中取得进步,那么就必须说服并且保障受访者接受他们的聊天记录在匿名化处理的情况下被共享和用于 AI 训练。

总结

目前看来,AI 在心理咨询领域有巨大的潜在空间,并且从单点产品来看是一个已经被验证的赛道。尤其是在国内,此类产品相对还比较空缺。

相比目前 AI 在其他领域的尝试,该领域无论是从产品形态还是商业模式都是相对成熟的,值得投资人关注,创业者入局。

附录:

以下是三篇来自 American Counseling Association(美国咨询协会)关于 AI 使用的建议,使用 Google Translate 进行翻译。

人工智能客户(普通人)使用建议及注意事项

在咨询中使用人工智能 (AI) 需要仔细考虑。本摘要为那些寻求咨询服务的人提供有关在咨询中使用人工智能的建议。这些建议强调了明智决策、了解人工智能的局限性、保护您的机密以及确保所使用的工具是最新的并遵守最佳实践的重要性。此外,这些建议还警告不要使用人工智能进行危机干预和正式诊断,并指出人工智能在满足不同人群需求方面的潜在缺陷。

这些建议符合美国咨询协会 (ACA) 的道德框架,该协会倡导保护客户并维护其福祉。

建议:就人工智能的使用做出明智的决定
您的顾问应根据 2014 年 ACA 道德准则 (A.2.b.) 向您解释他们提供的服务的性质。如果您对咨询服务中的人工智能辅助工具感兴趣,咨询师必须确保您了解您选择的人工智能工具可以提供什么和不能提供什么,以便您可以就使用人工智能来协助您实现咨询目标做出明智的决定( H.2.a)。人工智能并不能直接替代人类顾问,它有其优点和缺点。了解人工智能的功能和目的才能做出明智的决定,这一点很重要。

建议:确保您的信息保密且安全
了解在使用人工智能时如何保护您的机密性非常重要。2014 年 ACA 道德准则规定,咨询师必须“保护潜在客户和现有客户的机密信息”(B.1.c)。在参与涉及人工智能的咨询时,确保制定适当的程序来保护您的信息的私密性和安全性至关重要。有多项联邦和州隐私法律和法规旨在保护您的信息,例如 HIPAA 和加州消费者隐私法。消费者应确保他们使用的人工智能符合这些法律法规,以最好地确保他们的隐私和机密。您有权清楚了解如何保护您的机密信息。

建议:了解人工智能可以提供什么和不能提供什么
重要的是要认识到,虽然人工智能可以成为咨询中的宝贵工具,但它也有其局限性。咨询道德强调咨询师意识到他们所使用的技术的局限性的重要性(C.2.a,H.4.a)。在参与涉及人工智能的咨询时,我们鼓励您与咨询师讨论在咨询中使用人工智能的潜在限制和挑战。对您来说,了解人工智能的功能和风险、它对您的咨询体验的潜在影响,并对人工智能在咨询过程中能够实现什么和不能实现什么建立现实的期望非常重要。

建议:人工智能存在风险
您必须了解在咨询中使用人工智能的潜在风险(H.2.a),这一点很重要。潜在风险包括但不限于人工智能工具提供虚假声明或不准确信息的可能性,以及响应不公平,人工智能可能无法完全理解和响应所有人的不同经历和需求。个人(参见建议#7;Celi 等人,2022)。咨询道德强调咨询师避免伤害和确保客户福祉的重要性(A.1.a)。在参与涉及人工智能的咨询时,我们鼓励您与咨询师讨论减轻这些风险的措施,并确保所使用的人工智能工具可靠、准确和公平。

建议:了解人工智能不应用于危机应对
在危机情况下不应依赖人工智能。AI 可能会提供不适合紧急护理的虚假声明或危险信息。2014 年 ACA 道德准则要求咨询师保护客户免受伤害 (A.4.a),这也延伸到了人工智能的使用。在危机中,至关重要的是立即向能够提供适当支持和干预的合格专业人士寻求帮助。在这些严重的情况下,请务必联系紧急服务、危机热线或您的医疗保健提供者,而不是依赖人工智能。

建议:人工智能不宜用于心理健康诊断
目前不建议人工智能用于心理健康诊断。人工智能虽然是一种强大的工具,但可能无法完全捕捉准确的心理健康诊断所需的细致入微的理解和临床判断。与人类咨询师不同,人工智能缺乏全面考虑客户复杂的个人历史、文化背景以及各种症状和因素等的能力(Kulkarni & Singh,2023)。因此,虽然人工智能可以成为一种支持工具(Abd-alrazaq et al., 2022),但它不应取代专业咨询师的专业判断。建议将人工智能用作专业咨询师提供的专业知识的辅助手段,而不是替代品。辅导员应确保他们有能力使用人工智能工具并了解其局限性。任何人工智能辅助诊断都应该经过咨询师的专业判断进行严格评估和补充。为了获得可靠且符合道德规范的心理健康诊断,必须咨询有执照的专业人士,他们可以根据 ACA 道德准则 (E.2.) 提供全面、文化敏感和个性化的护理。

建议:人工智能面临多样性、公平性和包容性方面的挑战
人工智能面临着多样性、公平性和包容性方面的重大挑战。人工智能系统通常依赖的数据可能无法充分代表所有社区,特别是边缘化群体(Celi 等人,2022)。这可能会导致人们对人工智能所提供的服务缺乏理解和潜在的偏见。2014 年 ACA 道德准则强调了该行业对包容性和非歧视的承诺 (C.5)。人工智能在这方面的局限性可能会因为没有充分解决或理解少数群体的具体需求而无意中长期边缘化。建议客户寻求咨询服务的支持,这些服务积极考虑并解决这些重要因素,确保所有个人都得到公平且具有文化敏感性的护理。 

建议:请您的顾问提供有关人工智能使用的指导
对于那些探索使用人工智能进行心理健康支持的人来说,咨询经过培训、有执照的执业顾问至关重要。人工智能可能会带来有希望的好处,但其主张有时可能过于雄心勃勃和简单化、缺乏证据,甚至不正确且可能有害。专业顾问可以帮助您处理这些索赔,并根据需要将人工智能工具适当地集成到您的护理中。与辅导员进行讨论至关重要,尤其是当人工智能提供新颖的见解时,以确保这些见解能够有效地结合实际情况并可能得到应用。通过与有执照的专业人士合作,您的心理健康支持是基于证据的、全面的、道德合理的,并且根据您的独特需求量身定制。

建议:人工智能用于咨询的问责制
应告知客户谁负责在人工智能协助下做出的决策。应尊重他们对治疗透明度和问责制的偏好,并与他们知情决策的权利保持一致。人工智能系统应具有明确定义的角色,其输出应可由专业顾问解释,以确保负责任的使用。ACA 道德准则(C 节)强调提供咨询服务的责任和义务。使用人工智能工具时,至关重要的是,决策和结果的责任仍然由获得许可的专业人员承担。

对执业咨询师及其对人工智能的使用的建议

这些建议的目的是为咨询领域提供有关人工智能 (AI) 的使用和影响的指导。这些建议涵盖咨询的许多领域,例如实践、宣传、研究和道德。这些建议以专业价值观和道德原则为基础。工作组在创建这份文件时强调了客户福利的重要性,将他们的努力集中在这个首要问题上:咨询师应该如何做才能最有效地服务和保护客户?我们希望这些建议有多种用途,包括(a)提高人们对人工智能在咨询中的影响的认识并继续进行对话;(b) 为当前和未来围绕人工智能在咨询中的道德使用的讨论提供信息;(c) 就人工智能在临床工作中的应用向专业辅导员和实习辅导员提供协助;(d) 支持 ACA 的使命。

人工智能(AI)(包括机器学习和自然语言生成)在咨询实践中的整合为提高效率和效果提供了巨大的潜力。在咨询实践中采用人工智能有可能彻底改变该领域,提高效率和效果,同时保持道德标准。通过遵循这些准则,咨询师可以以最大限度地提高客户和从业者利益的方式引导人工智能的整合,同时坚持最高的专业行为标准。请记住,最终目标是提高为客户提供的护理和支持的质量。

建议:详细了解人工智能的基础知识、其子领域及其在心理健康方面的应用。 
辅导员必须在其能力范围内进行实践(C.2.a)。为了准备使用人工智能工作,咨询师应该通过三个层次的理解来了解人工智能。

  1. 要素,包括算法以及人工智能如何在日常生活中出现,例如社交媒体、营销活动和智能手机。
  2. 人工智能子领域,例如机器学习、神经网络、自然语言处理、计算机视觉和机器人技术。例如,辅导员可以了解大型语言模型 (LLM) 及其在机器学习中的使用。法学硕士用于“生成式人工智能”,例如 ChatGPT。
  3. 应用。研究表明,人工智能目前主要通过三种方式应用于心理健康:(1)“个人感知”(或“数字表型”),(2)自然语言处理,以及(3)通过聊天机器人(D’Alfonso,2020) 。

建议:保持开放、了解情况并接受教育。
对可以改善专业实践的技术进步保持开放态度。能够减轻从业人员行政负担的效率并不一定是不道德的。在结合实践之前对技术进行批判性评估。随时了解与人工智能咨询相关的最新发展、道德标准和最佳实践。

建议:避免过度依赖人工智能。
虽然人工智能可以提高效率,但它不应取代咨询中必不可少的人为因素。保持平衡的方法,确保治疗关系仍然是核心。

建议:认识到人工智能可能包含偏见并具有歧视性。
人工智能并不完美。人工智能用户的看法可能是人工智能不会判断或歧视,虽然从人工智能本质上是计算机系统的意义上来说这是正确的,但从人工智能的输出(例如文本)来看,这种看法是错误的。它生成的、音频或视觉效果可能会表现出偏见。不幸的是,人工智能仍然存在多样性和包容性问题(Fulmer et al., 2021)。构成人工智能的算法和训练模型可能缺乏种族、民族、宗教和性别包容性。认识到人工智能尽管具有所有能力和潜力,但可能会存在偏见,从而造成伤害。

建议:职业顾问和解决就业问题的人员应随时了解自动化如何塑造工作世界。
咨询的历史深深植根于20世纪初的职业指导运动。从弗兰克·帕森斯时代到今天,变化一直在持续,但人工智能给职业咨询带来了特殊的挑战。几个世纪以来,技术已经淘汰了一些工作并创造了新的工作。与人工智能相关的就业市场的未来状况尚不清楚,包括是否会产生盈余、保持相对平衡或导致就业岗位短缺。布鲁金斯学会的一项分析表明,自动化可能会扰乱一些行业,尽管在不久的将来不太可能出现大规模失业,但工人转型可能会变得更加普遍(Bessen 等人,2020)。咨询师应该探索能够解释劳动力快速变化的职业发展模型。

建议:倡导人工智能算法的透明度。
透明的人工智能算法是一种可以接受开发人员以外的其他人检查的算法(Yudkowsky & Bostrom,2011)。咨询师可以成为检查小组的一部分,帮助确保人工智能的构建公平且易于理解,然后将他们的发现反馈给咨询界。透明的人工智能包括三个因素:可访问性、可解释性和受控维护(Fulmer et al., 2021)。可访问性意味着人工智能应该可供其目标用户使用并对其做出响应。可解释性涉及人工智能的输出,它必须易于理解、用户友好,并且从一开始就清楚它确实是人工智能。与此相关的是,人工智能应该告知用户是否有人可以提供支持。最后,人工智能必须通过定期改进来适应和发展,这些改进应该来自客户、顾问和程序员的反馈。

建议:保持透明度和知情同意。
咨询师应明确告知客户在咨询过程中使用人工智能工具,解释其目的和潜在好处(H.2.a)。使用人工智能辅助工具获得客户的明确知情同意,确保他们了解对其治疗的影响和潜在影响。

建议:利用人工智能获得数据驱动的见解。
使用人工智能工具进行数据分析,从匿名和汇总的客户数据中获得有价值的见解,以评估和告知循证治疗方法和干预措施。持续评估人工智能生成的分析和内容的准确性和适当性,特别是在直接与客户(例如聊天机器人)交互的情况下。必要时进行干预以纠正或修改响应。

建议:确保数据安全和隐私。
为咨询服务和培训目的而设计的人工智能平台应从一开始就优先考虑数据安全和隐私,并纳入“设计保护隐私”的原则。这种方法可确保个人识别信息和个人健康信息在整个系统的生命周期中受到保护。此外,人工智能平台必须遵守适用的当地隐私法律和法规制定的标准(例如美国的 HIPAA;H.1.b)。通过将隐私考虑因素纳入人工智能系统的设计和操作中,提供商可以确保敏感数据的安全和保密处理,从而促进其在咨询服务中的使用的信任和合规性。

建议:咨询师应该让客户能够就他们的人工智能使用进行沟通。根据 ACA 道德准则 (2014),为多元化的客户提供支持是咨询行业的核心使命。咨询师应该授权客户与咨询师沟通如何使用人工智能工具来支持他们的心理健康,因为这些信息可以帮助咨询师了解客户的心理健康方法。顾问也许能够指导客户如何安全有效地使用人工智能工具。

建议:督导者可以利用人工智能来促进被督导者的发展。
监督关系是支持新辅导员发展的关键(Borders & Brown,2022)。监督关系应包括对人工智能咨询工具的讨论,并且可以通过使用人工智能工具来加强咨询监督。咨询主管应该意识到,用于监控被督导者工作的人工智能工具是存在的,并且可以为咨询师如何改进他们的工作提出建议。主管可能希望使用人工智能工具来阅读受督导者的会议记录或分析受督导者在会议中使用咨询技能的情况。

建议:咨询师必须了解人工智能在所有咨询环境中诊断和评估的局限性。
咨询师不应使用人工智能作为咨询中诊断和评估的唯一工具。尽管人工智能可以成为咨询师专业判断的支持工具,但咨询师必须接受足够的培训,以了解人工智能在临床环境中的局限性和使用。该方法符合 ACA 道德准则 (C.2.),该准则强调专业能力和判断力在临床决策中的重要性。咨询师必须严格评估人工智能辅助诊断建议,并结合他们的临床专业知识、对客户历史和文化背景的理解,以确保进行全面且符合道德规范的评估。该建议支持在咨询中负责任地、以客户为中心使用人工智能。

建议:考虑对人工智能和咨询的交叉点进行研究。
目前缺乏关于人工智能如何影响咨询的研究(Fulmer,2019)。人工智能显示出影响临床实践(例如诊断、实践管理、自动化文档)、咨询师教育和研究方法的多个领域的潜力;因此,需要更多的研究来发现人工智能在这些领域的潜力。未来的研究还应关注使用人工智能的伦理问题,并扩展我们对包括人工智能在内的先进技术对不同人群影响的理解。鼓励咨询师和咨询研究人员承担起进行研究的责任,以改变咨询实践和培训,以实现更好的客户护理和健康。辅导员主导的研究有三个显着的好处。第一,帮助确保人工智能融入实践得到研究证实。第二,从广义上讲,帮助咨询领域引领人工智能进入客户服务领域。第三,让公众了解人工智能在提供咨询服务和心理健康支持方面的功效和能力。

关于人工智能在咨询领域的未来的进一步建议

建议:呼吁对人工智能进行更多研究。
人工智能的研究正在蓬勃发展,我们可以做出推论并分享观点,但从基于证据的角度来看,关于咨询和人工智能的界面,我们还有很多不了解的地方。因此,我们呼吁咨询界进行更多研究。我们鼓励那些对人工智能感兴趣的人继续阅读和了解其发展。

建议:跨学科合作开发人工智能咨询服务
人工智能咨询服务的研究需要跨学科的努力。我们鼓励组建由执业咨询师、咨询研究人员、人工智能开发人员(例如计算机科学家)和来自不同客户群体的代表组成的研究团队。这促进了人工智能开发的整体方法,确保其满足临床需求,同时符合道德规范和文化敏感性。

建议:密切关注人工智能中的偏见和潜在歧视。
人工智能展现了巨大的前景,但随之而来的是巨大的危险。由于人工智能与咨询相关,因此人工智能输出的偏见可能会带来巨大的危害。用于创建人工智能的训练数据和算法是典型的罪魁祸首,但通过机器学习,用户可以“训练”人工智能使其变得有害。以微软臭名昭著的“Tay bot”案例为例。我们应该注意到,大多数治疗性聊天机器人都是为了防止机器人变得流氓而设计的。一些聊天机器人作为心理健康支持代理的功效有研究支持。现阶段我们既不支持也不建议反对聊天机器人,而是鼓励更多的研究并促进消除人工智能领域的偏见和歧视的努力。

建议:人工智能的好处和风险可能会随着更多的经验和研究而改变。考虑到人工智能不断变化的性质,有必要更新有关人工智能的声明和指南。
很少有领域能像人工智能那样快速变化和发展。ACA 有助于确保咨询师根据严格的研究方法进行实践。因此,随着人工智能的进步,ACA 应保持开放的态度,努力确保安全措施到位,并根据证据改变其建议。

建议:记住人际关系的价值。
一般意义上的人工智能和技术可以改变关系的本质。我们知道社交媒体的使用会影响人际关系的质量。人工智能可能会进一步改变人际关系。化身、聊天机器人和潜在的人形机器人可能会给人与人之间的关系带来压力或挑战。我们鼓励您记住人际关系的价值。

建议:ACA 应考虑将人工智能主题纳入 ACA 道德准则的下一次修订中。
2014 年 ACA 道德准则目前并未提及人工智能。该准则的下一份出版物应提及人工智能在咨询和监督方面的作用。

建议:考虑在道德准则中添加“可解释性”作为与人工智能工作相关的原则。
可解释性是一个用来降低人工智能不透明性的术语(Ursin et al., 2023)。换句话说,它意味着人工智能的创造者和用户,在这种情况下的顾问,应该具有可理解性和责任感(它是如何工作的?谁负责?)(Floridi & Cowls,2023)。

建议:不断评估和反思。
咨询师应定期评估人工智能对其实践的影响,寻求客户和同事的反馈。他们应该根据需要调整方法,以确保最高质量的护理。

建议:监控人工智能在诊断和评估中的作用。
越来越多的文献表明,人工智能有潜力协助诊断和评估(Abd-alrazaq 等人,2022;Graham 等人,2019)。人工智能可能有助于利用电子健康记录 (EHR)、脑成像数据、监控系统(例如智能手机、视频)和社交媒体平台等不同数据源来预测、分类或分组心理健康状况(Graham 等,2019) )。考虑到所有这些,我们不能仅仅依靠人工智能进行诊断。人工智能技术的现状并没有完全涵盖精神卫生保健临床诊断的某些现实世界方面。人工智能没有充分解决一些基本要素,例如收集客户的病史、了解他们的个人经历、电子健康记录 (EHR) 的可靠性、诊断心理健康状况的固有不确定性,以及同理心和直接沟通在治疗中的重要作用。当我们希望加强人工智能咨询的诊断流程时,必须整合这些关键因素,以确保 21 世纪提供全面、同理心和准确的护理。然而,随着不断的进步,它可能不仅是一种辅助诊断和评估的工具,而且在某些方面,它可能有一天会超越人类的能力。ACA 应密切关注人工智能的诊断能力。

建议:开发以客户为中心的人工智能工具。
在开发供客户使用的人工智能工具时,我们鼓励研发团队让客户和顾问参与设计过程,确保人工智能工具以客户为中心,满足现实世界的需求,并尊重客户的偏好和价值观。

建议:将道德人工智能培训纳入辅导员专业发展
辅导员和学员制定全面、持续的人工智能培训计划,强调按照 ACA 道德准则 (C.2) 的继续教育需要,正确、合乎道德地使用人工智能。F)。该培训计划应包括对人工智能技术、其在各种咨询服务中的应用以及隐私和保密等关键道德考虑的详细了解。此外,该计划应该成为辅导员持续专业发展的一部分,纳入定期更新和复习,以跟上快速发展的人工智能领域的步伐。这种综合方法确保辅导员在使用人工智能工具时既具备技术熟练性又具备道德知识。

  1. 精神障碍 ↩︎
  2. 精神疾病发病提速 中国1.7亿人被精神障碍困扰 ↩︎
  3. 智研咨询发布:2023年中国心理咨询行业市场分析报告 ↩︎
  4. Based on proven clinical techniques, state of the art delivery ↩︎
评论尸 的头像

如果你觉得本文有信息增量,请:

喜欢作者

 

精选评论

  1. 狄云 的头像

    年人均消费达到了 5944.6 亿元。。是否多了一个亿字

    1. 评论尸 的头像

      感谢捉虫,修改了。

  2. 随意抖 的头像

    我去年做了一个极低成本的小程序验证了一下,一开始定位咨询,发现互联网根本不让投放,后来改成了泛心理健康的陪聊,广告风格和“Pi”的类似,花了十多万,光投放用了七万。数据表现很不好,主要还是获客成本高,留存极低,当然获客方法肯定不对。我自己观察总结下来,前景很好,需要时间。尤其是泛心理健康和健身类似,人都希望自己好,但如果没有出大毛病的前提下,让人花时间去锻炼,保持健康,其实是反人性的。

    1. 评论尸 的头像

      你这个光投放就 7 万,肯定是成本结构出了问题啦。,
      你可以在即刻上关注下@哥飞,他现在在做个人 AI 创业的社群……总体来说,获客基本要降到 0 才算合格,无论是通过 SEO 还是小红书。