公司应该问的道德人工智能问题
随着人工智能成为21世纪迅速发展的技术进步之一,围绕重投资公司如何正确使用AI出现了许多令人不安的伦理问题。埃森哲应用智能公司负责任的人工智能全球负责人Rumman Chowdhury博士 一生的工作是与公司谈论有关道德和负责任的AI使用情况。
Chowdhury在最近的旧金山埃森哲技术愿景大会上与SiliconANGLE Media的移动直播工作室CUBE的主持人Jeff Frick进行了交谈。他们讨论了有关AI的道德问题,以及公司如何通过更深层次的方式思考AI以确保整体安全。一个nswers已经凝聚了清晰度。
我很高兴您介绍自己的很多演讲,因为您不是技术专家。您从非常不同的角度来看待这个问题。
我做。我是一位有背景的社会科学家。我从事人工智能的数据科学家已经有几年了,但是我并不是从事贸易的计算机科学家。我更多地来自统计背景,这给了我不同的看法。因此,当我想到AI或数据科学时,我实际上将其视为关于人们的信息,这些信息旨在理解人类行为的趋势。
一个问题是,AI仅仅是现有偏差的编纂,除非您真的采取非常积极的立场以确保您不仅在编纂软件偏差。你在看什么
绝对。我们确实必须考虑两种偏见。有一个来自我们的数据,来自我们的模型。这可能意味着数据不完整,训练有素的模型。但是要考虑的第二个问题是,您可以拥有出色的数据和完善的模型,但是我们来自不完善的世界。我们知道世界不是一个公平的地方。有些人的生活很贫困。我们不想将其编码到我们的系统和流程中,因此,当我们考虑道德和AI时,不仅仅在于改进技术;它还涉及到技术的改进。这是关于改善技术背后的社会。
关于每个人都在做大事的关于大技术使用AI的抱怨,随着时间的推移发生的事情是,那些被卷成更大的部分,而这些部分并不一定是他们最初的开始。
绝对。我称之为“道德外包”。因为我们感觉就像机器中的齿轮。有时,作为技术专家,我们感到人们不愿意为自己的行为承担责任,即使我们应该这样做。如果我们建立了一些根本不道德的东西,我们就必须停下来问自己:“仅仅因为我们可以做并不意味着我们应该做。”
并思考对社会的影响。目前,通常没有足够的责任感,因为每个人都觉得他们正在为这台更大的机器做出贡献-“我要问谁?” 和“系统仍然会压垮我。” 我们需要使人们有能力说出自己的想法并具有道德良知。
公司对您的信息的接受程度如何?他们明白了吗?
我给大家说一个大家都理解的短语,然后他们就会明白AI的道德观念。“刹车可以使汽车行驶得更快。” 如果我们有合适的护栏,警告机制和系统来告诉我们某些事情会出轨或失控,我们会更乐于冒险。因此,请考虑在高速公路上行驶。因为您知道如果前面的车突然停下来也可以停下来,所以您可以以每小时90英里的速度行驶。如果您不能停下汽车,没有人会超过15岁。
我实际上认为道德和人工智能是技术的道德实现,可以帮助公司提高创新能力。这听起来很矛盾,但实际上效果很好。如果我知道我的安全空间在哪里,那么我更有能力进行真正的创新。