当前位置: AI资讯 > 内文

你会采纳人工智能的决策建议吗?

2019-08-05 关键词:医疗AI

人工智能不断向医疗行业的各个层面渗透,投资也不断涌入各式各样的产品研发。但消费者对医疗AI的反响如何?美国最近一项关于“消费者与AI互动时的体验”在线调查了2000名成年人,五分之一的人表示相信人工智能给出的医疗相关的“直接决策”。

调查显示,如果某一场景完全没有人工互动(人工监督下)这一选择,只依靠自动化进行“交流”时,超过一半的消费者(52%)表示他们感到沮丧。只有16%的人表示他们享受与机器对话的交流体验。

年龄在18到34岁之间的年轻消费者更有可能信任来自人工智能的建议。22%这个年龄段的人信任AI独立做出的医疗建议,约三分之一的人更喜欢通过电话完成医疗“交易”,30%的人更喜欢(医生)面对面。年龄较大的成年人更有可能相信人工智能为低风险活动提供建议,例如酒店推荐。

调查表明,一方面,医疗人工智能为人类工作提供了支持和补充,但这种技术无法取代人类互动的价值,特别是在解决问题方面。另一方面,AI不能取代医生直接决策,医疗属于专业性极强兼具一定生命财产风险的行业,要求医疗决策必须高度循证、精确。

世界卫生组织首席科学家 Soumya Swaminathan 博士表示,医疗人工智能尚不足以在可信赖的基础上实现最大的差异化价值,因为没有足够的、高质量的数据允许它很快到达彼岸,这种“不足信赖”包括AI在加速药物研发、基于基因组的个性化医学以及在缺医少药地区进行基础诊断等的能力。

“医学实践的基本前提,仍然是科学知识(指南文献知识)。”一位医学教育高级副院长在 Nature 合作期刊《NPJ Digital Medicine》发表的专栏文章说,“在缺乏透明、循证的高质量数据输入情况下,盲目追求AI的新技术、新概念,可能会在临床实践中不知不觉地造成伤害。”

专栏文章强调人工智能可信赖的三个“数据可信”:1)输入数据可分析:干净、静态的,保证模型尽可能高的准确率;2)输出数据可解释:输出建议可以向病人解释,是基于循证证据的;3)数据来源有效性:符合国情、医院实情、临床实际。

美国国家科学院在建议美国制定国家癌症控制战略时,也提出了建立可互操作的大数据源,利用先进技术包括云计算、机器学习和人工智能改善疾病预测和评估癌症防治措施的价值。为此,应建立强有力的政策和激励机制,指导相关产品和服务的开发,同时强调“限制没有循证证据的产品或解决方案”。

参考文献:

[1] https://www.aiin.healthcare/topics/connected-care/20-consumers-trust-ai-generated-advice-healthcare [2]https://www.aiin.healthcare/topics/diagnostics/ai-cure-world-people-share-health-data

[3]https://healthitanalytics.com/news/big-data-artificial-intelligence-key-to-national-cancer-control

成为我们的

合作伙伴

医院演示预约
提交以下真实信息,我们将尽快联系您