澳洲人竟用AI当心理医生!专家发出警告:有点危险

你会向AI聊天机器人倾诉心事吗?会不会把最私密、最脆弱的一面告诉它?

对一些人来说,这或许听起来像是科幻片里的桥段,但如今,它正在成为现实生活中的新趋势。

越来越多开始使用生成式AI聊天机器人来寻求情感支持与心理安慰——仿佛拥有了一位免费的“私人心理医生”。

不过,专家对此意见不一:一方面,这类AI工具免费、便捷,随时随地都能提供“建议”;但另一方面,它也带来了隐私泄露风险,甚至在危机干预等关键时刻可能无法胜任。

1、AI情感“治疗师”怎么运作?

人工智能专家Ronnie Das表示,AI聊天机器人依靠统计模型预测人们的言语,并“模仿”他们的情绪反应,借此进行互动。

“如果你五年前问我AI能不能做心理治疗,我可能会笑出来……但现在,我们已经在谈论人类情绪了,”Das说。

“AI完全能够复制人类的情感表达。”

他指出,这项技术之所以发展如此迅速,是因为AI模型被训练于人类几十年来积累的大量知识,尤其是数字文献中所记录的一切。

如今,不少人在情绪低落或渴望反思的时候,转而寻求AI陪伴。

在这种情况下,Das认为AI擅长“倾听”、“回应”和提供一种“被理解”的错觉。

“心理健康领域的用户数量正在快速增长,”他说。“AI会逐渐学习你的行为习惯、了解你的个性,并建立起用户画像……基于这些,它可以非常聪明地‘量身定制’回答。”

2、AI的局限在哪里?

然而,Australian Psychological Society(心理学会)主席Sara Quinn警告,AI始终无法像人类一样“感受、思考或关心”。

“无论算法多智能、技术多创新,它都无法替代那种人与人之间建立起来的神圣信任空间,”Quinn博士说。

她指出,目前通用型AI模型虽然能模仿人类的表达方式与思维逻辑,但说到底,它们只是“模仿”。

Quinn还强调,AI虽然能进行“仿真式对话”,但缺乏理解复杂社交线索的能力。

一旦用户的应对机制出现偏差,或正处于需要专业医疗介入的临界状态,AI往往无法察觉,更无法提供真正的帮助。

她承认,随着技术进步,AI将在治疗流程中扮演越来越重要的角色,但同时也强调必须建立完善的隐私保护与伦理规范。

“我们应该积极拥抱这项技术,但前提是——我们必须清楚AI的定位,并确保它的使用符合伦理,”她说。

3、AI可以在哪些方面带来帮助?

对于生活在偏远地区、难以获得专业心理服务的群体,Quinn博士认为AI是一项“极具价值的资源”,能在缺乏支持的情况下提供一定程度的替代方案。

UWA(大学)社会学院负责人Amanda Davies也表示赞同。

她指出,偏远地区居民很难找到心理治疗师,而且往往面临高昂费用和长时间等待。

“对有些人来说,心理治疗已经变成一种奢侈品——尽管它本该是生活的必需品,”Davies说。

“人们不得不从家庭预算中剔除这类支出,而ChatGPT恰好填补了这个空缺——虽然这并不是我们希望看到的现实。”

她补充说,AI聊天工具对于那些已经接受过心理治疗、有一定表达能力与自我觉察的人来说效果更好,因为他们能更好地“驾驭”AI的生成能力。

随着技术的不断进步,专家普遍认为,未来更多人会在情绪调节与心理辅导方面借助AI工具。

澳大利亚心理学会也表示,AI在治疗实践中的存在感日益增强,正在逐渐被“正常化”;但与此同时,围绕隐私与保密性的担忧依然强烈。

而像Ronnie Das这样的AI专家则更乐观——他指出,仅在过去半年内,生成式AI在心理健康领域的进展就“令人难以置信”,并预计这种趋势将持续快速发展。

*以上内容系网友指点山河自行转载自最西澳,该文仅代表原作者观点和态度。本站系信息发布平台,仅提供信息存储空间服务,不代表赞同其观点和对其真实性负责。如果对文章或图片/视频版权有异议,请邮件至我们反馈,平台将会及时处理。

喜欢、支持,请转发分享↓
赞助商链接