文献解读

关于人工智能放射学中伦理问题的共识声明

挑战与机遇

q.png

导语:人工智能(Artificial Intelligence,AI)是指以近于人类智慧运转的智能机器,自诞生以来,随着研究的深入、理论的丰富和技术的进步,已广泛被应用于各行各业。对于放射学科,人工智能的引入具有极大的潜力提高学科建设、精准诊断疾病、以及减少医疗费用;但同时也会带来系统性错误的风险,并伴随着复杂的伦理学和社会学问题。

11月份发表在Canadian Association of Radiologists Journal的一篇名为“Ethics of Artificial Intelligence in Radiology: Summary of the Joint European and North American Multisociety Statement”的文章汇总了ACR(美国放射学院)、European Society of Radiology(欧洲放射学会)、RSNA(北美放射学会)、Society for Imaging Informatics in Medicine(医学影像信息学会)、European Society of Medical Imaging Informatics(欧洲医学影像信息学会)、Canadian Association of Radiologists(加拿大放射医师协会)和American Association of Physicists in Medicine(美国医学物理学家协会)关于AI放射学的伦理声明,对AI生命周期中一些关键的伦理学问题做了阐释,期望以此启发AI的开发者和用户以人道的方式带来公正、有益的结果,减少危害的发生。

该论文从数据、模型及算法、实践三个方面对人工智能放射学的伦理学问题展开评述。



数据伦理


数据伦理是人工智能放射学的基础,开发AI需要放射学的数据库,数据的正确使用可以造福于患者健康,而以各种非伦理的方式将数据资本化,则会给患者和公共利益带来危害。

数据伦理主要反映在数据的收集、管理和访问等方面。其核心领域包括:知情同意、隐私和数据保护、所有权、真实性、透明度、各机构管理大型数据的资源差距、提供有意义和道德的数据访问权。其中数据的真实性包括:如何完善和细化数据、数据所包含的具体信息、数据如何精准的反应患者身体情况以及可能产生的结果的偏倚。

在AI的时代,放射学数据的价值、所有权和访问途径被赋予了新的意义和重要性。数据的管理正在以超过目前人类认知的速度演化,我们面临的最大挑战是如何去阻止出于非伦理目的的数据使用。如果不去仔细理解商业和技术问题,在使用数据上犯下重大错误的风险会更高。

而对于放射学家,他们有责任和义务使用收集的数据造福患者、改善公共利益、提取更多的疾病信息、改进放射学实践,避免使用数据的同时给患者带来的不良影响和歧视。


在开发和使用AI过程中,关于数据伦理需要解决如下问题

算法及模型伦理

人类做出的决定往往受个人的知识、价值观、偏好和信仰的左右。而AI做出的决定往往受其内部数据的特点的影响。对于监督式学习的算法,AI会基于先前的训练来进行数据匹配,在这些进程中,人类的价值观、偏好和信仰便会转移到AI模型中,产生人为偏倚。

虽然AI能很好地完成多分类任务,但AI产品不是人类,而是受人类设想、开发及监控的电脑程序,最终的责任还是归到人类。所以我们必须意识到AI模型变化的速度,提前预见到因AI的误用产生的错误和非伦理的结果。因此,针对算法及模型,有以下两大方面需要考虑。


1

 透明化(Transparent):

提高模型的透明度,当算法失败并导致临床不良事件时,用户可以去理解AI为什么做出这种决定,调研相关设计系统找出原因,消除未来可能出现的类似错误。但是合理的模型透明度到底在什么水平仍存在争议,因为不恰当的透明度会让模型更敏感,容易受到恶意攻击,进而使内部数据公之于众。


2

可解释性(Explainability):

即对模型做出决定的解释,包括对算法结构技术方面的理解,以及模型如何将结果呈现给用户。这也是AI未来研发的一个核心领域。现如今,可解释性更高的模型通常表现出较差的性能,比如深度学习模型的参数超过1亿个,包括基于统计学方法对参数进行归一化或舍弃,但就当今的技术而言这种模型几乎是无法被理解的。因此,目前提倡更多的一种方法是设定一种“警告机制”,当模型做出的结果的一致性和确定性低于某个特定水平时能够及时反馈给用户。


AI模型一般来说易于开发和训练,因此可能会出现商业化AI的开发,需要建立相应的道德规范。同时由于放射学目前无法抵御AI可能产生的对抗性攻击,需要研究相应的解决方案。

就算法及模型伦理,必须解决以下问题:

实践伦理


人工智能放射学是一个涵盖临床护理、技术、数学和经济学的复杂生态系统。创新的技术有时会转化为无原则的活动,哪怕是在无意间也会对患者、社会、个人和企业声誉带来巨大的负面影响。因此在实践中,关于AI需要注意以下几个方面。


1. 自动化偏差(Automation Bias):这是指人类倾向于AI生成的决策,而忽略了一些与之相反的数据或相互矛盾的人类决策。自动化偏差会导致遗漏错误,尤其是当用户没有意识到AI算法失败的情况下以及AI决策频率高的情况下,因此需要放射科专家迅速的读取检查结果做出正确的决策,而在一些资源匮乏的地区,没有当地非常专业的放射科医生去否决AI的错误决策,自动化偏差的风险会进一步被放大。

2. 责任体系(Liability System)的建立:随着AI在放射领域的普及,相应的医疗事故出现的频率也越来越高。由于AI算法本身的多样性,针对不用形式的AI可能会出现不同的责任模型。同时AI开发者也必须遵循和医生相同的“不伤害标准”。

3. AI的管理(Manage):规模较小或资源相对匮乏的医院和学术机构可能缺乏管理复杂AI系统的技术。这类AI系统仍将由大型的私人医疗保健实体、保险公司和缺乏专业放射学知识但数据科学专业性强的大规模公司开发,这很可能会加剧AI访问的不平等化。


就AI实践伦理,必须解决以下问题:


结论

1. AI在放射领域应用越来越多,在提高效率和精准度的同时也伴随着一些伦理学问题;2. AI应通过伦理的使用以促进健康、降低危害并确保利益相关者的利害关系的分配公平合理;3. AI模型应提高透明度的可解释性,减少决策偏倚,降低自动化偏差;4. 建立AI的道德规范和责任体系;5. 放射科医生需要引导自己成为AI的专家,在新型AI生态系统中不断获取新技能造福患者。


留下评论

邮箱地址不会被公开。 必填项已用*标注