当前播报:人工智能工具通过像同事一样提供建议来赢得医生的信任

来源:互联网 2023-04-08 08:49:21


(资料图)

医院已经开始使用由人工智能驱动的“决策支持工具”,可以诊断疾病、建议治疗或预测手术结果。但是没有算法是永远正确的,那么医生怎么知道什么时候该相信 AI 的推荐呢?

康奈尔大学安·鲍尔斯计算与信息科学学院信息科学助理教授杨倩领导的一项新研究表明,如果人工智能工具可以像同事一样为医生提供建议——指出支持该决定的相关生物医学研究——然后医生可以更好地权衡推荐的优点。

研究人员将于 4 月在计算机协会 CHI 计算系统人为因素会议上介绍这项新研究,“利用生物医学文献来校准临床医生对人工智能决策支持系统的信任”。

此前,大多数 AI 研究人员都试图通过解释底层算法的工作原理或使用哪些数据来训练 AI 来帮助医生评估决策支持工具的建议。但 Yang 说,仅就人工智能如何做出预测进行教育是不够的。许多医生想知道该工具是否已在临床试验中得到验证,而这些工具通常不会发生这种情况。

“医生的主要工作不是学习人工智能是如何工作的,”杨说。“如果我们可以构建系统来帮助根据临床试验结果和期刊文章验证 AI 建议,这些都是医生值得信赖的信息,那么我们就可以帮助他们了解 AI 对于每个特定案例来说可能是对还是错。”

为了开发这个系统,研究人员首先采访了九名不同专业的医生和三名临床图书馆员。他们发现,当医生不同意正确的行动方案时,他们会追踪相关生物医学研究和案例研究的结果,同时考虑每项研究的质量及其与手头案例的紧密程度。

Yang 和她的同事们构建了他们的临床决策工具原型,该工具通过提供生物医学证据和 AI 的建议来模拟这一过程。他们使用 GPT-3 来查找和总结相关研究。(ChatGPT 是 GPT-3 最著名的分支,专为人类对话而设计。)

“我们建立了一个系统,基本上试图重现我们观察到的医生相互建议时的人际交流,并从临床文献中获取相同类型的证据来支持人工智能的建议,”杨说。

决策支持工具的界面一侧列出患者信息、病史和实验室测试结果,另一侧列出人工智能的个性化诊断或治疗建议,然后是相关的生物医学研究。作为对医生反馈的回应,研究人员为每项研究添加了简短摘要,突出显示患者人群、医疗干预和患者结果的详细信息,以便医生能够快速吸收最重要的信息。

关键词:

返回顶部