东南教育网您的位置:首页 >教育动态 >

人工智能模型难以识别废话

导读 根据周四发布的一项研究,为聊天机器人和其他应用程序提供动力的人工智能模型仍然难以区分废话和自然语言。美国哥伦比亚大学的研究人员表示...

根据周四发布的一项研究,为聊天机器人和其他应用程序提供动力的人工智能模型仍然难以区分废话和自然语言。

美国哥伦比亚大学的研究人员表示,他们的工作揭示了当前人工智能模型的局限性,并建议现在在法律或医疗环境中放任自流还为时过早。

他们让九个人工智能模型通过他们的步伐,向他们发射数百对句子,并询问哪些可能在日常讲话中听到。

他们要求100人对成对的句子做出相同的判断,例如:“买家也可以拥有正品/一个精通我漫无边际的高中圆周。

这项研究发表在《自然机器智能》杂志上,然后权衡了人工智能的答案和人类的答案,发现了巨大的差异。

像GPT-2这样的复杂模型,是病毒聊天机器人ChatGPT的早期版本,通常与人类的答案相匹配。

其他更简单的模型表现不佳。

但研究人员强调,所有模型都犯了错误。

“每个模型都表现出盲点,将一些句子标记为有意义的句子,人类参与者认为是胡言乱语,”该报告的作者、心理学教授克里斯托弗·巴尔达萨诺(Christopher Baldassano)说。

“这应该让我们停下来,至少目前我们希望人工智能系统在多大程度上做出重要决策。

该论文的另一位作者Tal Golan告诉法新社,这些模型是“一项令人兴奋的技术,可以极大地补充人类生产力”。

然而,他认为“让这些模型取代法律、医学或学生评估等领域的人类决策可能还为时过早”。

他说,其中的一个陷阱是人们可能故意利用盲点来操纵模型。

随着去年ChatGPT的发布,人工智能模型进入了公众意识,此后它被认为通过了各种考试,并被吹捧为医生,律师和其他专业人士的可能助手。

免责声明:本文由用户上传,如有侵权请联系删除!