有关AI和医疗保健的主要伦理问题
人工智能在医疗保健(尤其是放射学)中的兴起引发了关于道德,偏见以及“对”与“错”之间区别的无数讨论。在意大利放射医学会的官方杂志《La radiologia medica》上发表的一项新分析探讨了所有人中最大的伦理问题:谁对在医疗保健中使用AI的利弊负有责任?
作者。他们的评论着重于放射学,但是他们的信息可以应用到任何希望通过使用AI提供患者护理的专业。
主要作者,意大利比萨大学的Emanuele Neri和同事写道:“当人们做出决定时,行动本身通常与产生行动的代理人直接负有责任。”“您会影响他人,因此,您应对自己所做的事情和决定要做的事情负责。但是,如果您自己而不是AI系统这样做,那么在出现问题时能够承担责任就变得困难而重要。”
根据作者的说法,最终,使用AI的放射科医生应对该AI提供的任何诊断负责。AI没有自由意志,也没有“知道”它在做什么,因此必须指出放射科医生自己。
该团队补充说,由于这项责任,“放射科医生必须对AI的使用进行培训,因为他们对机器的动作负责。”该责任还移交给参与任何AI系统研发的任何专家。换句话说,如果您帮助建立了一个用于AI研究的数据集,那么您可能会认为,如果AI诊断错误,您应该承担部分责任。这只是开发可信赖的AI至关重要的众多原因之一。
分析中的另一个关键点是,人工智能自动化实际上可能会对放射科医生的最终诊断或治疗决策产生负面影响。
作者写道:“自动化的偏见是人类倾向于机器生成的决策,而忽略了相反的数据或相互矛盾的人类决策。”“自动化偏差会导致遗漏和调试错误,当人们没有注意到或无视AI工具的失败时,就会发生遗漏错误。”
Neri等。通过研究AI技术这个新时代的“放射线-患者-患者关系”得出结论,指出提供商必须对他们的决定的起源诚实。
作者写道:“引入AI的一个或有的问题,同样重要的是对患者的透明度。”“必须告知他们诊断是在AI的帮助下完成的。”