尽管专业警告

AI聊天机器人进入处理器椅子 – 并不是每个人都对此感到满意。
仅在3月,Tiktok用户的1670万工作就讨论了使用Chatgpt作为治疗师的使用,但心理健康专家就可以在其场所使用的人工智能工具来治疗焦虑,抑郁症和其他心理健康挑战的越来越多的方向提出了危险信号。
Sthristinazozulya在上个月在她的个人资料上发布的Tiktok视频中分享道:“仅Chatgpt就使我成为约会,健康方面的人,在健康方面,在健康方面。”
“每当我感到焦虑时,而不是用我以前向朋友发送短信或主要碰撞的文字来轰炸我的父母……在这样做之前,我总是在Chatgpt中表达我的想法,这在我的目标上做得非常好,并为我提供了这种直接的安慰,不幸的是,无法为每个人带来任何能力。”
研究人员发现,父母信任大赦国际比医生更多地获得医疗建议
2023年3月9日,星期四,在美国纽约笔记本电脑上的Chatgpt徽标。一些Tiktokers Chatgpt被用作传统处理器的替代品。 (加比·琼斯/彭博)
其他人也将平台用作“拐杖”,包括用户 @karly.bailey,她说这是在年轻公司工作并且没有健康保险的人,将其用于“始终”进行“免费治疗”。
我参与了我的参与,我只会告诉她正在发生的事情以及如何感受细节,从字面上看,就好像我要搬到朋友一样,这会给我最好的建议。”
“它还为您提供日常主张或EFT(窃听情感自由)……将为您提供想要的东西。”
这些用户远非一个人。独立医疗保健提供者Tebra的一项研究发现,“在每四个美国人中,在每四个美国人中,比聊天机器人更有可能与人工智能交谈,而不是参加治疗,” Tebra的一项研究是独立医疗保健提供者的操作系统。
在英国,一些年轻人在等待时间的长期国家卫生服务局(NHS)中选择了心理健康顾问的感知益处,并避免支付特别咨询费用,这可能会花费约400磅(约合540美元)。
据《泰晤士报》报道,对精神疾病的重新思考的数据发现,在18个月后,英国有16,500多人仍在等待心理健康服务,这表明成本负担,等待时间和其他寻求医疗保健带来的障碍会加剧使用更具成本效益的方式。
我是技术专家:10个大赦国际声称将一直使用它

治疗师警告不要为心理健康建议而不是咨询持牌专业人员的聊天机器人。 (iStock)
但是,尽管批评家说这些虚拟机器人可能可以使用且舒适,但它们也缺乏人类的同情,并且可以在危机情况下以不接受所需的指定方法的风险提出一些危机。
心理健康专家Kojo Sarvo博士说:“我已经与Chatgpt进行了交谈,我已经测试了一些主张,以找出其反应的程度,而Chatgpt倾向于从Google,其合成的Google获得信息,以及(IT)加工者的角色。”
一些GPT,例如GPT处理器,专门设计旨在提供“舒适,建议和治疗支持”。
尽管它可能比传统疗法更具成本效益,而Chatgpt Plus的价格为每月20美元,这允许用户优势,例如无限制访问,更快的响应时间等等,但该平台无法像可以诊断,处方药品,监控进度或减少急性问题的专业人员那样扩展。
Sarva补充说:“您可以感受到治疗并为人们提供支持,但我认为这不是能够帮助您解决最复杂的心理健康问题的实际治疗师的替代方法。”
一位女人说,Chatgpt通过帮助发现癌症挽救了她的生命,医生错过了
他说,这种危险在于那些将Chatgpt等工具的建议与有执照的专业人士的合法建议混淆的人,在处理心理健康问题和学习如何在各种情况下分配方法方面拥有多年的经验。
我特别担心可能需要精神药物的人,他们使用人工智能来帮助他们感觉更好,并且他们将其用作治疗。但是有时候……治疗和药物被指示。因此,没有办法而没有去实际专业人员。
但是,某些聊天机器人方面对于需要支持的人,尤其是那些寻求与医生聊天的方式有关他们认为自己可能患有的状况的人(例如多动症和注意力缺乏)可能很有用,以使他们能够知道自己可以承受日期。
((您可以)包括一些坚定的主张,您可以向提供者确定这些主张,并更好地阐明您的症状,因此我认为这是人工智能可以发挥的有用作用,但是就实际治疗或实际医疗建议而言,如果人们开始依靠它,那是不好的。
今年早些时候,美国预防自杀基金会的首席医疗官员克里斯汀·尤 福克斯新闻数字 在研究中,大赦国际对自杀,心理健康和更大人类行为的风险的预期和意外影响的研究存在“关键差距”。
“此聊天AI的问题在于,它没有在自杀风险和预防算法的风险方面设计。
Muttieh博士还解释说,由于聊天可能无法破译工匠的隐喻,因此他们可能无法确定某人是否有感染风险。
单击此处获取Fox News应用程序
福克斯新闻中的尼古拉斯·拉努姆(Nikolas Lanum)为这份报告做出了贡献。