米斯蒂·威廉姆斯(Misty Williams)不时地将雪松赛医学中心的急诊室实现,以治疗镰状细胞病的疲劳疼痛,这会导致红细胞和预防血液流动。
在请求和保湿止痛药后,洛杉矶的41岁居民提供了一个不同寻常的请求:访问Intelligence带有卫星的HATEM的虚拟现实耳机可以继续使用。
使用耳机,威廉姆斯发现自己在虚拟花园里,蝴蝶在四处漂移。人类机器人以平静的女性声音使它复活。
戴Apple Vision VR耳机的病人威廉姆斯(Williams)代表锡奈(Cedars-Sinai)的XAIA进行了“机器人”会议。
(Genaro Molina / Los Angeles时报)
她说:“您好,欢迎您。我叫XAIA,我是您的心理健康盟友。” “我该如何帮助?”
会议结束后,它缓解了威廉姆斯的痛苦,她的思想更加安静。
威廉姆斯说:“从精神和身体上讲,我感到更加和平,”威廉姆斯说。
XAIA(Zai-uh)只是引起人工智能技术的众多方式之一,称为数字健康。
数字健康咨询公司的数据显示 岩石健康。心理健康是最佳14亿美元资助的临床空间。
洛杉矶的主要医疗机构采用了这一趋势。首席人工智能官保罗·卢卡克(Paul Lukak)说,加州大学洛杉矶分校(UCLA Health)使用人工智能来帮助医生更快地捡起中风,减少住院治疗,并通过自动化医疗笔记来与患者花费更多时间。
凯克(USC)的凯克医学(Keck Medicine)计划为员工提供商业聊天工具,以支持压力管理。
在Xaia的Cedars-Sinai中,这是一位人为的现实意图的Ally-From博士,Omar Liran博士,由Brennan Spiegel博士和临床心理学家Robert Cherenov的治疗投入提供了与技术中心技术项目的合作。
奥马尔·拉兰博士。
(Cedars-sinai)
由Liran创立的有利可图的公司VRX Health是Cedars-Sinai到商业上XAIA的独家许可。 Cedars-Sieai和许多私营部门投资者在公司中拥有财产权。
像One Misty Williams这样的版本可通过Apple Vision的虚拟现实耳机以每月的19.99美元的价格向公众提供。 Meta耳机的VR版本仅适用于研究人员。可以联系有执照医生的网络版本和手机,以每月获得99至399美元之间的分级价格,从而邀请他们邀请使用该工具的患者。
精神科医生Lieger说,XAIA是为了补充而不是代替它,而不是在服务提供者缺乏的情况下进行的心理健康专家服务。
他说:“即使每周有一次有人每月只看到一次。”
XAIA应用程序源自数百种治疗文本,无论是由专家创建的真实会议和假疗法看起来像实际处理器。
例如,如果XAIA用户告诉他们在癌症的新诊断中挣扎,机器人可能会说:“这对您来说应该非常困难”,然后询问这会如何影响他们的情绪,以及当他们淹没时会发现自己在做什么。
聊天机器人说:“当你觉得事情很重时,要保持积极的态度,应该花很多精力。” “当您再次注意到这些困难的想法时,通常会发生什么?您发现自己退出还是求助于任何人获得支持?”
临床心理学家罗伯特·塞诺夫(Robert Cernov)。
(Cedars-sinai)
Cedars-Sinai卫生服务研究主管Spiegel说,迄今为止,在Cedars-Sinai的各种研究中,大约有300名患者使用了XAIA,其中包括那些专注于慢性疼痛,酗酒和肠易激综合症的患者。
斯皮格尔说,许多患有慢性疾病的人也在焦虑或抑郁症中挣扎。身体和情感症状相互促进,XAIA等工具旨在帮助两者。
该工具尚未涵盖保险,但是有用于虚拟现实治疗和数字保健服务的账单图标,而其他医院(例如Mayo诊所)已经开始使用它们。 VRX总裁Gabe Zetter表示,VRX达成了在Mayo Clinic出版XAIA的协议。
XAIA并不是同类的唯一应用。 Woebot是一场心理学家艾莉森·达西(Alison Darcy)在斯坦福大学(Stanford)的开创性聊天,他使用基于认知行为疗法的文本对话来支持焦虑和抑郁的用户。
尽管该公司达到了150万用户,但该公司于7月关闭了该申请。达西说,该公司现在专注于使用大型语言模型构建新工具,因为人工智能的移动速度比可以跟上它的食品和药物管理局等组织者快。
近年来,一些聊天被指责为情感支持,以加深困扰,其中一个事件,其中佛罗里达州的一名少年与聊天机器人交谈后,于2024年自杀死亡。
Assyn Assn Asn的心理学家,创始人兼共同主席Tod Isse说,此类事件在情感上证实了人工智能工具的风险。
“即使在最有爱心和同情的反应之后,人工智能也不在乎您是开车去商店还是从深渊开车。”
埃西格(Essig)说,人工智能计划正在学习模仿人道主义反应,因此,这取决于建立清晰界限并确保它们不会造成伤害的人们。

梅斯蒂·威廉姆斯(Mesti Williams)与XAIA进行了会议后说:“从心理和身体上讲,我感到更加和平。”
(Genaro Molina / Los Angeles时报)
当使用道德框架设计并在临床监督下使用时,诸如XAIA之类的工具可以支持真正的治疗进展,并且更像是数字杂志 – 几十年前为患者提供的纸质作品的现代开发。
但是,许多尚未对临床旨在模仿亲密关系并建立情感联系的情感支持聊天。
霍尔本说:“人们可以尝试作为另一只绵羊的应用程序。” “但是,这实际上并没有给他们与他人的现实经历,以发展需要人们参与复杂人际关系的人的好奇心和同情。”
Halberne注意到,临床认可的心理健康工具与无法控制的人之间存在差异。她和其他人支持由史蒂夫·帕迪拉(D-Chula Vista)赞助的加利福尼亚州法律草案,该法律要求开发聊天机器人公司或心理健康应用程序的公司来检测其工具是临床验证,由FDA组织还是依靠AI。
利兰说,他和他的伴侣意识到了限制,它们是在扶手上建造的,以防止聊天机器人说任何有害或不适当的事情。例如,其中一个人工智能臂创建了响应,另一个人会立即对其进行测试,以确保在允许其与用户联系之前安全。
Liran说:“我们不仅向公众开放,”他指出,手机和桌面上的释放只能通过当前的许可医生提供,而Cedar在多项研究中正在测试XAIA。 “我们试图非常小心。”
在一项对14人的研究中,使用患有焦虑或轻度或中度抑郁症的XAIA的患者开放了各种主题,包括死亡的母亲和担心裁员。对于自从瓦解以来一直在夜间出汗的患者而言,XAIA要求更多地了解什么使这种关系感到无限的关系以及它如何影响患者。
一些患者仍然喜欢差异并对人类治疗师的反应,但医学文献表明患者正在为非人类治疗师的想法做准备。
在2月份在PLOS心理健康上发表的一项研究中,要求参与者比较有执照的治疗师和Chatgpt创建的反应。
不仅有许多人努力知道差异,而且他们不断地将人工智能归类为更同情,文化和情感上的吸引力。
XAIA的创建者将该工具视为病态地标关系的扩展。如果某人在深夜或会议之间需要心理健康支持,这可能是一种有用的事情。
斯皮尔说:“我们仍然需要治疗师 – 人类 – 看着他们眼中的其他人来举办有关弱点的谈话。”
同时,“这是不实际将我们的头埋在沙滩上,说我们不应该这样做,因为人工智能无处不在。” “我们将很久以前就用人工智能刷牙。”