当前位置: AI资讯 > 内文

期刊 | 谁对人工智能的临床决策负责?

2020-2-6 关键词:临床决策支持(CDSS),医疗AI

人工智能(AI)在医疗领域深入应用以来,引发了有关伦理、偏见及决策对错的无数讨论。近日,发表在意大利医学放射学会(SIRM)官方期刊《放射医学》(La radiologia medica)上的一篇分析文章,从放射科角度,探讨了AI最受关注的伦理问题:在医疗领域应用AI的利弊,比如在AI辅助下做出的错误决策,应由谁来负责?

应用AI,医生对决策结果负责

当人们做出决定时,行为本身通常与产生行为的主体联系在一起,因而需对自己所做的决定负责。但在临床上,如果AI系统参与了行为的产生,会对确定承担责任的主体带来难题。

希腊哲学家亚里士多德对此难题给出了答案。自亚里士多德提出道德责任理论以来,人们可通过控制条件与认知条件来归因某项行动的责任主体:如果你在“知道自己在做什么”这种认知条件下,对操作有足够的控制权,并实施了操作,即使你是操作的代理人,也必须承担全部责任。

AI并没拥有自由意志,对行为的产生也没有绝对的控制权,即不符合责任归因的“认知条件”与“控制条件”,医生掌握着行为的控制权,应对AI的应用结果负责。此外,由于参与AI系统研发的专家建立了系统的数据集,应对AI模型的优化承担责任。

应用AI的责任归因在欧洲议会上也有探讨。2017年2月,欧洲议会通过一项决议,指出应禁止使用“机器人的赔偿责任”一词,因为这暗示着机器人本身可能对造成的任何损害承担民事责任。并提出使用此类技术不应损害医患关系。

加强培训,规避自动化偏差

在放射学中,人工智能为放射科医生带来了人类无法检测或量化的影像新功能。一个典型的例子是放射线学,其中的纹理分析可以生成人类无法生成和解释的数百个特征。放射科医生需要监测AI系统的输出并验证AI的解释,承担着图像诊断的最终责任。

虽然已有多个研究表明,AI在图像诊断领域表现优异,但由于AI决策基于人类无法察觉的细微特征,在自动化偏差(人类倾向于机器推出的决策)的情况下,放射科医生可能忽略相反的数据或与自身决策相悖的矛盾,错误地接受或执行AI的决策,从而导致遗漏错误。为安全地使用AI来辅助决策,值得信赖的AI不应影响放射科医生在图像解释与工作流程方面的自主决策过程,同时保证所处理数据的质量、完整性与机密性。

此外,放射科医生应接受使用人工智能的培训,以使他们熟悉该领域的技术要求,有潜力研究AI系统的可解释性并指导研发过程,确保系统“遵守”规则,减少自动化偏差与错误决策的发生。

参考资料:https://link.springer.com/article/10.1007%2Fs11547-020-01135-9

成为我们的

合作伙伴

医院演示预约
提交以下真实信息,我们将尽快联系您