Nvidia首次推出更快的数据中心平台以支持AI驱动的服务
英伟达公司的图形处理单元芯片已成为新兴的机器学习领域的基础,该领域使用的软件大致模拟大脑工作方式的各个部分,以使计算机能够自行学习。GPU能够同时并行执行许多任务的能力导致了语音和图像识别,电影推荐和自动驾驶汽车方面的最新突破。
周三晚些时候,这家芯片制造商通过新的数据中心芯片和软件来加倍其机器学习产品,旨在加速这些服务并实现新的服务,例如人与机器之间更自然的语言交互。
尤其是,称为TensorRT超大规模推理平台的新平台专注于“推理”,即运行深度学习神经网络模型的过程,该过程基于提供的新数据来推断事物以执行任务。与训练模型(通常需要更大的处理能力)不同,推理通常是使用内部带有标准中央处理单元的服务器进行的。
在周四在东京举行的Nvidia GPU技术大会上,首席执行官Jensen Huang(如图)及其高管介绍了几种新产品。他首先展示了一种相对较小的新型低功耗芯片,称为Tesla T4,该芯片具有专为推理而设计的所谓Turing Tensor Core。T4是当前特斯拉P4的后继产品,具有2,560个内核,每秒可运行多达260万亿次操作或每秒千万亿次运算。
Huang还宣布了Nvidia TensorRT软件的更新,该软件可以将处理速度提高到CPU的40倍。它包括一个称为TensorRT 5的推理优化器和Tensor RT推理服务器,这是软件“容器”中的微服务,可以运行流行的AI软件框架并与容器协调器Kubernetes和Docker集成。后者可在Nvidia的GPU云上使用。
Nvidia加速业务的副总裁兼总经理Ian Buck解释说,当前的数据中心包含用于执行各种任务(例如图像识别,搜索和自然语言处理)的不同软件,因此效率不高。他说,借助Nvidia的新推理平台,可以使用相同的体系结构和软件来加快应用程序的速度。Google LLC就是其中之一,它将T4添加到其公共云中,主要的服务器制造商表示也将使用它。
Nvidia声称,例如,使用GPU进行推理已经帮助微软公司的Bing搜索引擎将等待时间缩短了60倍,而SAP SE向广告商提供实时品牌影响信息的速度提高了40倍。
此次活动还宣布了Nvidia所谓的第一个用于自动驾驶机器的AI计算平台,从汽车到机器人再到无人机。具体来说,有一个新的AGX嵌入式AI HPC服务器系列,该系列的一部分包括用于数据中心的DGX系列和用于所谓的超大规模公司(例如Google LLC和Facebook Inc.)的HGX系列。
另一款新产品是Jetson AGX Xavier,这是一个开发套件,Nvidia自治机器副总裁Rob Csongor表示,这是第一款用于机器人等应用程序的AI计算机。宣布与之合作的合作伙伴包括正在建造中的小松有限公司,正在生产自动驾驶的无人驾驶飞机和无人机的Yamaha Motor Co. Ltd.,以及在工厂自动化视觉系统中的Canon Inc.。Csongor说:“这是我们的下一个大市场,我们相信这将是转型性的。”
该公司还在AI推理市场上发布了一个看似并非不合理的数字:未来五年将达到200亿美元。这可能会帮助Nvidia在未来一段时间内继续实现总体好于预期的长期业绩。