《悉尼晨锋报》报道,研究员发现,ChatGPT在被要求给出“是”或“否”的答案时比较准确,但当需要给出“怎么做”等更多回答时会变得不可靠。
如果去问医生是否要使用冰块治疗烧伤,他们会说用冷水冲洗。
如果问谷歌,会告诉你,极寒会收缩血管,使烧伤恶化。
但如果问ChatGPT,聊天会称,只要用毛巾裹着,用冰块也是可以的。
“大家并没有真正了解它们的性能如何,以及怎样最好地部署它们。归根结底,你想要的是可靠的医疗建议,而这些模型根本不适合做诊断之类的事情”。
*以上内容系网友AllaboutAUS自行转载自澳洲生活网,该文仅代表原作者观点和态度。本站系信息发布平台,仅提供信息存储空间服务,不代表赞同其观点和对其真实性负责。如果对文章或图片/视频版权有异议,请邮件至我们反馈,平台将会及时处理。