在面对武器化人工智能的猛烈抨击之后谷歌承诺不会邪恶
据 《纽约时报》周三报道,谷歌公司正在采取措施,就其技术(尤其是人工智能)如何用于军事目的制定一套道德准则。
该报告没有说明这些指南的内容,但可能会在未来几周内揭晓。不过,该公司明确指出的一件事是,其技术不会被用作武器。
自从有消息称谷歌正在与美国国防部合作提供机器学习人工智能以来,谷歌就受到了批评。它的目的是要对伊拉克和叙利亚进行数千小时的无人机拍摄,否则,这对于人类来说将是一项费时费力的工作。
自从Google参与所谓的“ Project Maven”活动以来,该公司的一些员工就毫不含糊地表示,他们不希望为战争问题创造技术。
4月份,成千上万的员工签署了一封信,以表示他们对该项目的不满,提醒谷歌其座右铭是“别作恶”。谷歌反驳说,观看视频片段并不能完全将人工智能武器化。但这似乎并不适合许多员工。谷歌表示将认真对待此事,并将听取其员工提出的反对意见。
本月早些时候,当几名员工走出去时,这种愤怒激增了,这不仅说明AI不应该用于与战争有关的任何事情,而且他们的反对意见充耳不闻。
他们的抗议反映在一封公开信中,谴责谷歌在帮助国防部“有针对性地杀人”中发挥了作用,进一步表明谷歌已经单方面采取了行动。该信现已由1,129人签署,其中大多数是从哲学到机器人学等各个领域的学者。
尽管至少没有听说过技术巨头能帮助五角大楼和竞标合同的事,但谷歌非常清楚它正在溜冰。近年来,随着AI的发展,对“ SkyNet”类型技术的担忧可能比以前更加令人恐惧。技术反乌托邦小说似乎不像从前那样牵强。
Google的内部电子邮件充分证明了这一点。“不惜一切代价避免提及或暗示人工智能,” Google Cloud首席科学家李飞飞在给同事的电子邮件中写道。“武器化的AI可能是AI最敏感的主题之一-即使不是最多的主题。“这是媒体发现所有损害Google的方法的红肉。”
根据同一份报告,该合同对Google而言仅价值900万美元,对公司来说可不是什么大数目,特别是当声誉受到威胁并且公众对这种新兴技术的信任微弱时。
毫无疑问,无论是谷歌提供技术还是其他人,军方都会以一种或另一种方式利用技术。五角大楼去年宣布,它一直在硅谷进行寻找合作伙伴的活动,并指出某一点将通过算法赢得未来的战争。如果这是Google的算法,那么它的母公司Alphabet Inc.将需要一些令人信服的指导方针,以使其信守新的格言:“做正确的事”。