发自波士顿 —几年前,在我父亲最后的那段日子,他一直在与严重的抑郁症作斗争。作为一名医生兼教授,他并不缺乏获取精神保健服务的渠道。但他在一个以精神疾病为耻的社会中长大,也因此不愿寻求专业帮助。作为一个儿子,看着父亲受苦是让人伤心欲绝的;作为一名公共卫生研究人员,我也对提供护理方面的无数系统性失败有了新的认识。
来自世界各地的科学家们都在试图解决2月份启动的“全球精神健康倒计时2030”所提出的多项问题,而该项目是一项“针对心理健康的多方利益相关者监督和问责协作”。但虽然这一举措是积极的一步,但它忽略了一项有效解决方案的关键要素:先进技术,尤其是人工智能。
在全球范围内,精神科医生和临床心理学家的数量远远不够。例如在人口超过1600万的津巴布韦就只有25名心理健康专业人员。虽然该国已经制定了诸如“友谊长凳”等一些创新且有用的社区主导举措,但可扩展性有限。
缺乏获得精神保健的渠道可不仅仅是发展中国家的问题。在美国,有近半人口会因为囊中羞涩而无力获取全面的精神保健服务。
在渠道之外还存在一个耻辱问题,例如我父亲的经历。临床证据表明耻辱感有两种形式。由于某些地区对精神疾病的误解,那些寻求精神保健的人可能会以歧视和排斥的形式遭到众人的羞辱。而当这些信念被内化时,患者也可能会面临自我羞辱:低自尊,低自我效能和不愿意寻求提升机会。
未能提供足够护理的后果也被严重低估。一项研究指出心理健康问题与32.4%的残疾生命年和13%的残疾因素相关生命年(由于疾病,残疾或不合时宜的死亡而导致的“健康”生命损失)相关。
上述状况也造成了巨大的经济成本。根据2015年发布的一项分析,仅在美国,精神卫生的总经济负担每年就达2100亿美元以上,其中一半以上归因于工作场所缺勤和生产力损失;另外5%归因于与自杀有关的费用。而企业通过提醒雇员练习专注力来规避精神保健需求的努力或许没有支持者声称的那么有用。
但是聊天机器人这类基于人工智能的解决方案或许能有所帮助。通过模仿自然语言来保持与人类用户的对话,这些软件系统可以充当虚拟治疗师,为那些缺乏其他选项的人提供指导和支持。几位斯坦福大学临床心理学家发布的一项随机对照试验报告也表明聊天机器人在减少抑郁症症状方面明显优于纯信息手段。
这类由聊天机器人提供的临时精神卫生保健在受训练专业人员供应不足的社区中特别有用。在发展中经济体前所未有地普及智能手机的时代,基于互联网的解决方案将为心理健康的可获取·性带来福音。
聊天机器人还可以协助克服耻辱问题,因为它们可以吸引那些不愿意寻求精神保健服务的人。最近的一项研究发现高达70%的患者对使用移动App进行心理健康自我监控和自我管理感兴趣。另一项研究则指出相对于跟人类治疗师交谈,人们会在聊天机器人面前更自由地表达自己,这体现出人们在寻求解决心理健康问题时总会优先考虑维护隐私和避免他人下判断。
如今也是时机让由心理学家等临床医疗人士与人工智能开发人员展开更广泛的合作。几所美国大学也已经启动了将临床医学专家与软件工程师联系起来的项目。这些伙伴关系应扩展到其他国家的大学——特别是在那些精神卫生保健需求未得到满足的国家——以支持那些适应本地语言和文化的虚拟治疗师的发展。
让更多不同的参与者参与算法的开发也有助于解决人工智能研究中不时出现的种族和性别歧视问题。研究人员应使用具备全面代表性的测试组,同时注意遵守严格的隐私和负责任操作规程。
当然,这些举措都是要花钱的。那些如今每年花费32亿美元用于全球卫生研究和开发的风险投资机构应该扩大投资范围,去涵盖那类用于心理健康护理服务的人工智能技术,还可以资助具有社会意识的科技企业家之间的竞争以促进该领域的进一步创新。
可以肯定的是,基于人工智能的心理健康干预措施不会——也不应该——取代人类心理学家或精神病学家。毕竟聊天机器人无法表现出真正的同情心。它可以做的是筛选高风险个体(例如那些有自杀意念的人)并可能在短期内避免破坏性行为。
需求和需求往往推动着创新。不幸的是在精神卫生保健方面并非如此。现在也是时候投资制定长期性、具备性价比且规模可扩展的解决方案以建立心理健康护理能力。这一举措必须包括扩大对传统服务的支持,但也应当借助像人工智能这样的尖端技术。
发自波士顿 —几年前,在我父亲最后的那段日子,他一直在与严重的抑郁症作斗争。作为一名医生兼教授,他并不缺乏获取精神保健服务的渠道。但他在一个以精神疾病为耻的社会中长大,也因此不愿寻求专业帮助。作为一个儿子,看着父亲受苦是让人伤心欲绝的;作为一名公共卫生研究人员,我也对提供护理方面的无数系统性失败有了新的认识。
来自世界各地的科学家们都在试图解决2月份启动的“全球精神健康倒计时2030”所提出的多项问题,而该项目是一项“针对心理健康的多方利益相关者监督和问责协作”。但虽然这一举措是积极的一步,但它忽略了一项有效解决方案的关键要素:先进技术,尤其是人工智能。
在全球范围内,精神科医生和临床心理学家的数量远远不够。例如在人口超过1600万的津巴布韦就只有25名心理健康专业人员。虽然该国已经制定了诸如“友谊长凳”等一些创新且有用的社区主导举措,但可扩展性有限。
缺乏获得精神保健的渠道可不仅仅是发展中国家的问题。在美国,有近半人口会因为囊中羞涩而无力获取全面的精神保健服务。
在渠道之外还存在一个耻辱问题,例如我父亲的经历。临床证据表明耻辱感有两种形式。由于某些地区对精神疾病的误解,那些寻求精神保健的人可能会以歧视和排斥的形式遭到众人的羞辱。而当这些信念被内化时,患者也可能会面临自我羞辱:低自尊,低自我效能和不愿意寻求提升机会。
未能提供足够护理的后果也被严重低估。一项研究指出心理健康问题与32.4%的残疾生命年和13%的残疾因素相关生命年(由于疾病,残疾或不合时宜的死亡而导致的“健康”生命损失)相关。
BLACK FRIDAY SALE: Subscribe for as little as $34.99
Subscribe now to gain access to insights and analyses from the world’s leading thinkers – starting at just $34.99 for your first year.
Subscribe Now
上述状况也造成了巨大的经济成本。根据2015年发布的一项分析,仅在美国,精神卫生的总经济负担每年就达2100亿美元以上,其中一半以上归因于工作场所缺勤和生产力损失;另外5%归因于与自杀有关的费用。而企业通过提醒雇员练习专注力来规避精神保健需求的努力或许没有支持者声称的那么有用。
但是聊天机器人这类基于人工智能的解决方案或许能有所帮助。通过模仿自然语言来保持与人类用户的对话,这些软件系统可以充当虚拟治疗师,为那些缺乏其他选项的人提供指导和支持。几位斯坦福大学临床心理学家发布的一项随机对照试验报告也表明聊天机器人在减少抑郁症症状方面明显优于纯信息手段。
这类由聊天机器人提供的临时精神卫生保健在受训练专业人员供应不足的社区中特别有用。在发展中经济体前所未有地普及智能手机的时代,基于互联网的解决方案将为心理健康的可获取·性带来福音。
聊天机器人还可以协助克服耻辱问题,因为它们可以吸引那些不愿意寻求精神保健服务的人。最近的一项研究发现高达70%的患者对使用移动App进行心理健康自我监控和自我管理感兴趣。另一项研究则指出相对于跟人类治疗师交谈,人们会在聊天机器人面前更自由地表达自己,这体现出人们在寻求解决心理健康问题时总会优先考虑维护隐私和避免他人下判断。
如今也是时机让由心理学家等临床医疗人士与人工智能开发人员展开更广泛的合作。几所美国大学也已经启动了将临床医学专家与软件工程师联系起来的项目。这些伙伴关系应扩展到其他国家的大学——特别是在那些精神卫生保健需求未得到满足的国家——以支持那些适应本地语言和文化的虚拟治疗师的发展。
让更多不同的参与者参与算法的开发也有助于解决人工智能研究中不时出现的种族和性别歧视问题。研究人员应使用具备全面代表性的测试组,同时注意遵守严格的隐私和负责任操作规程。
当然,这些举措都是要花钱的。那些如今每年花费32亿美元用于全球卫生研究和开发的风险投资机构应该扩大投资范围,去涵盖那类用于心理健康护理服务的人工智能技术,还可以资助具有社会意识的科技企业家之间的竞争以促进该领域的进一步创新。
可以肯定的是,基于人工智能的心理健康干预措施不会——也不应该——取代人类心理学家或精神病学家。毕竟聊天机器人无法表现出真正的同情心。它可以做的是筛选高风险个体(例如那些有自杀意念的人)并可能在短期内避免破坏性行为。
需求和需求往往推动着创新。不幸的是在精神卫生保健方面并非如此。现在也是时候投资制定长期性、具备性价比且规模可扩展的解决方案以建立心理健康护理能力。这一举措必须包括扩大对传统服务的支持,但也应当借助像人工智能这样的尖端技术。