同情或同情反应的聊天机器人依赖于这个人对感觉机器的感觉有多舒适
据一组研究人员称,大多数人会喜欢一个提供同情或同情反应的聊天机器人,但他们补充说,反应可能依赖于这个人对感觉机器的感觉有多舒适。
在一项研究中,研究人员报告称,人们更喜欢从聊天机器人(一种可以模拟对话的机器)接受同情和同情反应,而不是从没有情感的机器接收响应,S.Shyam Sundar,James P. Jimirro教授说。媒体效应和媒体效果研究实验室的联合主任。桑达尔说,当人们感到对一个人的同情时,人们会表达同情,而当他们真正感受到另一个人的同样情感时,他们会表达同情。
随着医疗保健提供商寻求削减成本和改善服务的方法,他补充说,这些发现可以帮助开发人员创建会话技术,鼓励人们分享有关他们的身心健康状况的信息。
“越来越多,因为我们中间有越来越多的聊天机器人和人工智能驱动的会话代理人,”Sundar说。“而且,随着越来越多的人开始转向健康论坛上的智能发言人或聊天机器人寻求建议,或者寻求社会和情感支持,问题就变成:这些聊天机器人和智能扬声器应该在多大程度上表现出类似人类的情感?”
虽然今天的机器无法真正感受到同情或同情,但开发人员可以将这些线索编程为当前的聊天机器人和语音助理技术,据研究人员报告他们在当前的网络心理学,行为和社交网络问题中的发现。
然而,对于某些人来说,聊天机器人可能变得过于私人化,大众传播博士候选人刘冰洁说,他与Sundar一起研究这项研究。她说,那些对有意识的机器持怀疑态度的研究参与者表示他们对聊天机器人印象深刻,这些聊天机器人可以提供同情和同情的声明。
“我们样本中的大多数人并不真正相信机器情感,因此,在我们的解释中,他们将同情和同情的表达视为礼貌,”刘说。“然而,当我们看到那些有不同信仰的人时,我们发现那些认为机器可能有情绪的人会对聊天机器人的同情和同情表达出负面反应。”
研究人员从一所大学和一个在线任务平台Amazon Mechanical Turk招募了88名志愿者。志愿者被要求与四个不同的在线健康服务聊天机器人中的一个互动,这些聊天机器人可以提供特定于研究人员设定的四种条件之一的响应:同情,两种不同类型的移情 - 认知移情和情感移情 - 或者,建议控制条件。
在有同情心的版本中,聊天机器人回应了一个声明,例如“我很抱歉听到这个消息。” 用于承认用户感受的认知移情程序的聊天机器人可能会说,“这个问题可能非常令人不安”。表达情感同情心的聊天机器人可能会回答一个句子,该句子表明机器了解用户如何以及为何感受到他们的行为,例如“我理解您对情况的焦虑。”
研究人员表示,情感同情和同情是最好的。
“我们发现认知同理心 - 反应有点脱离,而且从一种深思熟虑的,但几乎是消毒的方式接近问题 - 并没有完全奏效,”Sundar说,“当然,聊天机器人和机器人做得很好但这也是机器的刻板印象。它似乎并没有那么有效。看起来效果最好的是情感同情,或同情的表达。“
在之前的一项研究中,研究人员要求参与者只阅读人类主体和机器之间的对话脚本。他们发现在信息中使用同情和同理心的效果相似。
研究人员表示,未来的研究可以研究交感神经和同情相互作用如何对健康和性行为之外的不同问题起作用,以及研究人们如何感受人类机器和机器人如何提供这些类型的反应。
“我们希望看看这是否是人类对机器情绪反应的一致模式,”刘说。