最新发布的一项研究表明,聊天机器人ChatGPT在某些方面表现优于医生。
本研究于周五(4月28日)在国际著名医学期刊上发表《JAMA Internal Medicine》结果表明,人工智能助手可能有能力帮助医生起草病人问题的答案。
加州大学圣地亚哥分校约翰·W·艾尔斯(John W. Ayers)医生说,聊天机器人对病人的反应通常比医生好,答案的质量和同理心要高得多。”使用人工智能来改善医疗保健是一个巨大的机会。”
具体来说,研究团队从社交论坛上提取了195个医学问题,每个问题都由人类医生回答。然后将这些问题输入到ChatGPT中,以获得相应的人工智能答案。
然后,该团队将人类医生和聊天机器人的答案提交给三名医疗保健专业人员进行评估。
这组专业人士需要从三个方面进行评分:第一,哪个反应更好?第二,信息质量如何?第三,答案有同理心吗?
在评估过程中,医疗保健专业人员不知道哪个答案来自人类或ChatGPT。
结果表明,在第一个问题上,评估师认为聊天机器人在78.6%的问题上表现优于人类医生;
在质量方面,评估师认为78.5%的聊天机器人表现良好或非常好,而人类医生只有22.1%;
在同理心方面,聊天机器人45.1%的答案被评为同理心或非常同理心,而医生的比例只有4.6%。
这项研究提供了一个非常典型的例子。一名患者在论坛上提出了一个问题:漂白剂溅到眼睛后是否有失明的风险。ChatGPT首先表达了他的担忧,然后对“不太可能失明”的结果提出了七个建议和鼓励。
人类医生回应说:“听起来你没事”,然后贴出中毒中心的电话号码。相比之下,三位医疗保健专业人士更喜欢ChatGPT的反应。
然而,一些专家指出,ChatGPT的回复通常比医生长得多,这可能会影响质量和同理心的分数。爱丁堡大学自然语言处理教授玛丽拉 Lapata说,如果不控制答案的长度,就很难确定评分者的判断标准。
本周的另一项研究表明,ChatGPT在某些特定的医疗场合具有独特的价值和优势。研究人员要求ChatGPT提供五年级阅读水平的建议。“ChatGPT提供的答案写得很好,很详细,预计会提前获取专业信息。”
然而,宾夕法尼亚大学医学教授Davidididididid Asch博士强调,ChatGPT应被视为医生的补充。他还警告说,人工智能工具还没有完全准备好,“我担心错误的信息会被放大。”
扫码关注
QQ联系
微信好友
关注微博