观点:必须通过机器学习解决道德挑战
人们坚信AI和机器学习具有改善医疗行业的潜力。但是,根据PLOS Medicine发表的最新观点,在医疗保健提供者全面采用机器学习之前,该技术需要符合安全性和道德标准。
即,AI必须满足数据保护要求,最小化偏差的影响并满足透明性标准。
从这个角度来看,瑞士卫生科学与技术系的埃菲·瓦耶纳(Effy Vayena)和亚历山德罗·布拉西姆(Alessandro Blasimme)以及哈佛法学院的I.格伦·科恩(I. Glenn Cohen)的作者解决了医疗行业在机器学习可以产生积极影响之前必须解决的几个挑战。药物。
数据保护要求
这组作者说,用于机器学习算法的数据受到隐私保护,要求开发人员承认其道德和法规限制。他们还强调了了解数据来源并获得使用和重复使用数据的同意的重要性。
Vayena,Blasimme和Cohen写道:“用于训练算法的数据必须具有必要的使用授权,但要确定允许将哪些数据用于特定目的并不是一件容易的事。”“这还将取决于数据类型,管辖权,使用目的和监督模型。”
减少偏差
这组作者说,为了防止机器学习训练后的算法出现偏差,研究人员应避免使用代表性不强的训练数据集。通常,当数据源不能在给定人口统计数据中反映真实的流行病学时,或者在不包含给定人口统计数据的足够成员的数据集上训练算法时,就会产生偏差。
为了避免这个问题,作者鼓励科学家们开发最佳实践,以识别和最小化有偏见的训练数据集的影响。
作者写道:“如果在医疗保健中采用对具有这些特征的数据集进行训练的算法,则它们有可能加剧健康差异。”
透明度
作者说,机器学习内部缺乏透明度会引发“最棘手的道德和法律问题”,同时鼓励科学家对在医学中使用机器学习方法持开放态度和诚实,以加强患者及其医师之间的共同决策。
“此外,向患者披露有关医疗的基本但有意义的细节是医学伦理学的基本宗旨,这要求医生自己至少掌握所用器械的基本内部工作原理。因此,为了使MLm(医学上的机器学习)符合道德规范,开发人员必须与最终用户(医生)进行交流,这是基于MLm的决策背后的一般逻辑,”作者写道。
“鉴于患者,医疗保健专业人员和护理人员之间的个人接触和互动的重要性,对于医疗保健提供商而言,将MLm嵌入支持性和授权性的交付系统中至关重要。第三方审计也可能被证明是必要的,而这种道德整合可能成为认证的前提。”