自动系统-如无人驾驶汽车
执行以前只能由人类执行的任务。在新的IEEE智能系统专家观点中,卡内基梅隆大学人工智能伦理专家David Danks和Alex John London认为,目前的安全法规没有规划这些系统,因此无法确保自主系统安全可靠地运行。
“目前,我们通过调节各种车辆机械系统的性能和驾驶执照来确保道路安全”,伦敦,哲学教授兼迪特里希人文与社会科学学院伦理与政策中心主任。“当汽车自行驾驶时,我们没有可比的系统来评估其自动驾驶系统的安全性和可靠性。”
Danks和伦敦指出交通部最近试图制定无人驾驶汽车的安全法规,作为传统指南的一个例子,它没有充分测试和监控自动系统的新功能。相反,他们建议创建一个阶段性的动态系统,类似于药品和医疗设备的监管和审批流程,包括用于批准后监控的强大系统。
“自动驾驶汽车和自动系统正迅速传播到社会的各个方面,但它们的成功使用取决于我们是否可以信任和理解它们,”伦敦哲学与心理学教授兼哲学系主任Danks说。 。“作为一个社会,我们需要找到新的方法来监控和指导这些自治系统的开发和实施。”
Danks和伦敦提出的分阶段过程将从“临床前试验”开始,或者在模拟环境中进行测试,例如驾驶各种景观和气候的自动驾驶汽车。这将提供有关自治系统如何在广泛的环境中做出决策的信息,以便我们能够理解他们在未来的新情况下如何行动。
可接受的性能将允许系统通过有经验的人类“共同飞行员”有限地引入现实世界的环境,继续进行“人体内”研究。在这些目标环境中的成功试验将导致基于许可的监控测试,并在满足性能目标时进一步放宽限制。
Danks和伦敦提出,应该对食品和药品管理局如何规范药物批准程序进行建模和管理。
“自动驾驶汽车具有拯救生命和提高经济生产力的潜力。但除非公众能够确信这些系统是安全可靠的,否则这些好处将无法实现,”伦敦说。