工作组首次提出了AI在医疗保健可信赖性方面的标准

  • 发布时间:2021-03-14 15:35:38 来源:
标签:

消费者技术协会(CTA)表示,人工智能的一些问题(例如黑匣子问题)在应用于医疗保健时可能会使人们“怀疑”该技术,该协会发布了一项标准,以识别人工智能的核心要求和基准解决方案被认为是值得信赖的。

CTA总裁兼首席执行官加里·夏皮罗(Gary Shapiro)在一份声明中说:“人工智能正在提供解决方案-从诊断疾病到先进的远程护理选项-应对医疗保健最紧迫的挑战。” “由于医疗保健系统面临临床医生短缺,慢性病和致命的大流行,因此至关重要的患者和医疗保健专业人员相信这些工具的开发方式和预期用途。”

该标准涵盖了三个方面的可信赖性:人类信任,技术信任和监管信任。根据标准,第一个处理AI开发人员和用户之间的信任。开发人员应确保弄清楚系统可以做什么和不能做什么,系统可以执行的性能如何以及将系统的功能置于上下文中。

技术信任与AI系统的工作方式有关,即使偏差最小化,数据安全且私密,遵循HIPAA要求,并且用于训练AI系统的源数据就是好数据。监管信任涵盖了监管机构感兴趣的主题,包括数据隐私法,FDA和FTC法规,州医疗委员会和其他法律。

该标准概述了模型开发人员必须遵循的许多要求,以便满足每个级别的可信赖性。它由CTA召集的60多个组织创建,并获得ANSI认证。CTA发起了一项有关医疗保健AI的倡议,并且在过去两年中,其医疗保健人工智能工作组的成员数量增加了一倍,达到64个组织和成员公司。根据一份新闻稿,该标准代表着重于实施基于AI的医疗和保健解决方案的系列文章中的第二篇。

飞利浦全球软件标准法规负责人,工作组联合主席Pat Baird表示:“建立这些信任基础代表着AI在医疗保健中的应用迈出了一步。” “人工智能可以帮助护理人员减少花在计算机上的时间,而将更多的时间花在患者身上。为了到达那里,我们意识到需要不同的方法来获得不同人群的信任,而支持AI的解决方案需要使我们的客户,患者和整个社会受益。”

  • 版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。