新的研究表明机器人在伪装成人类时更有说服力
最近人工智能的技术突破使机器或机器人有可能作为人类通过。 由纽约大学阿布扎比分校计算机科学副教授Talal Rahwan领导的一个研究小组进行了一项实验,研究人们如何与他们认为是人类的机器人互动,以及一旦机器人揭示了他们的身份,这种互动是如何受到影响的。 研究人员发现,机器人在某些人机交互中比人类更有效,但前提是他们被允许隐藏他们的非人性。
在他们发表在《自然机器智能》上的题为《人类-机器合作中的透明度-效率权衡的行为证据》的论文中,研究人员介绍了他们的实验,在实验中,参与者被要求与人类伙伴或机器人伙伴进行合作游戏。 这一游戏被称为“异教囚徒困境”,旨在捕捉每个相互作用的当事人都可以自私地采取行动,试图利用对方,或者合作行动,试图获得互利的结果。
关键的是,研究人员给了一些参与者关于他们的同事身份的错误信息。 一些与人类互动的参与者被告知他们与机器人互动,反之亦然。 通过这一实验,研究人员能够确定人们是否对他们认为是机器人的社会伙伴有偏见,并评估这种偏见如果存在,会在多大程度上影响机器人的效率,因为机器人对其非人性是透明的。
结果表明,机器人以人类的姿态更有效地说服合作伙伴在游戏中合作。 然而,一旦它们的真实性质被揭示,合作率就会下降,机器人的优势就会被否定。
Rahwan说:“虽然人们普遍认为机器在决策过程中应该是透明的,但不太清楚机器在决策过程中是否应该透明。
例如,GoogleDuplex就是一个自动语音助手,能够生成类似人类的语音,代表用户打电话和预约。 谷歌双工的演讲是如此现实,以至于电话另一边的人甚至可能没有意识到他们在和机器人说话。 开发这样的系统是否合乎道德? 我们是不是应该禁止机器人像人类一样通过,并强迫他们对他们是谁保持透明? 如果答案是“是”,那么我们的调查结果就突出表明,需要为我们愿意支付的效率成本制定标准,以换取这种透明度。