研究人员开发了可解释的人工智能算法
多伦多大学和LG AI Research的研究人员开发了一种“可解释的”人工智能(XAI)算法,该算法可帮助识别和消除显示屏中的缺陷。在新的算法,其中跑赢行业基准类似的方法,是通过LG和多伦多大学之间正在进行的人工智能研究的合作是在2019扩大,重点放在AI应用,为企业的发展。
研究人员表示,XAI算法可能会应用于需要了解机器学习如何做出决策的窗口的其他领域,包括对医学扫描数据的解释。
“可解释性和可解释性是要满足我们为工程师自身设定的质量标准,并满足最终用户的要求,”应用学院爱德华·罗杰斯电气与计算机工程系高级教授科斯塔斯·普拉塔尼奥提斯(Kostas Plataniotis)说。科学与工程。“有了XAI,就不可能有一个适合所有人的尺寸。” 您必须询问要为谁开发它。是否适合另一位机器学习开发人员?还是给医生或律师?”
该研究团队还包括T工程学院的毕业生Mahesh Sudhakar和硕士候选人Sam Sattarzadeh,以及LG AI Research Canada的Jongseong Jang领导的研究人员,该公司是该公司全球研发部门的一部分。
XAI是一个新兴领域,致力于解决机器学习策略的“黑匣子”方法问题。
在黑匣子模型中,可能会以数百万个带标签的图像的形式为计算机提供一组训练数据。通过分析数据,算法学习将输入(图像)的某些特征与某些输出(标签)相关联。最终,它可以将标签正确地粘贴到从未见过的图像上。
机器自行决定要注意图像的哪些方面,而忽略哪些方面,这意味着其设计人员将永远无法确切知道图像是如何得出结果的。
但是,当这种“黑匣子”模型应用于医疗保健,法律和保险等领域时,就会带来挑战。
Sudhakar说:“例如,[机器学习]模型可能会确定患者有90%的机会患上肿瘤。“对不正确或有偏见的信息采取行动的后果实际上是生死攸关。要完全理解和解释模型的预测,医生需要知道算法是如何得出的。”
与传统的机器学习相比,XAI被设计为一种“玻璃盒”方法,使决策透明化。XAI算法与传统算法同时运行,以审核其学习性能的有效性和水平。该方法还提供了进行调试和提高培训效率的机会。
Sudhakar说,从广义上讲,开发XAI算法有两种方法-每种方法都有其优点和缺点。
第一种称为反向传播,它依赖于底层的AI体系结构来快速计算网络的预测如何与其输入相对应。第二种方法称为扰动,它会牺牲一些速度以提高准确性,并涉及更改数据输入和跟踪相应的输出以确定必要的补偿。
Sudhakar表示:“我们LG的合作伙伴需要一种结合了两者优势的新技术。” “他们有一个现有的[机器学习]模型,该模型可以识别LG产品中带有显示器的缺陷零件,我们的任务是在保持可接受的运行时间的同时,提高可能存在的缺陷的高分辨率热图的准确性。”
在第35届AAAI人工智能会议的最新论文中,描述了该团队产生的XAI算法,即语义输入采样解释(SISE)。
“我们看到了SISE在广泛应用中的潜力,” Plataniotis说。“特定场景的问题和意图将始终需要对算法进行调整,但是,例如,医疗专业人员可以更轻松地解释这些热图或'解释图'。”
Jang说:“ LG与多伦多大学合作的目标是成为AI创新的世界领导者。” “ XAI的第一个成就表明我们公司不断努力在多个领域做出贡献,例如LG产品的功能,制造创新,供应链管理,材料发现效率等,并使用AI来提高客户满意度。”
电气和计算机工程系主任Deepa Kundur教授说,这样的成功是与行业合作伙伴合作的价值的一个很好的例子。
Kundur说:“当两组研究人员以各自的观点来到桌面时,通常可以加快解决问题的速度。” “对于研究生来说,暴露于这一过程是非常宝贵的。”
在长达一年的项目中,团队要实现积极进取的准确性和运行时目标是一个挑战,尽管同时要兼顾多伦多/首尔时区和在约束下工作,但Sudhakar表示有机会生成切实可行的解决方案对于一家世界知名的制造商来说,这是值得的。
Sudhakar说:“对我们了解行业的运作方式非常有益。” “ LG的目标是雄心勃勃的,但是我们得到了他们的令人鼓舞的支持,并就想法或类推提供了反馈。这非常令人兴奋。