随着AWSreInvent的临近人工智能成为公共云的杀手app应用
亚马逊网络服务公司已成为企业提供基于云的工具的强大提供商,以供企业开发和部署复杂的人工智能应用程序。
在我们期待 本月底举行的第七届re:Invent年度 会议时,AWS在构建复杂的AI生态系统方面的巨大投资继续给人留下深刻印象:
针对AI工作负载优化核心基础架构即服务云:原始的AWS EC2计算服务现在具有数十种实例类型,从通用到计算优化,内存优化,图形处理单元加速和现场可编程门阵列-加速。
在AWS云中实施复杂的AI加速器硬件:AWS的云提供对最新GPU的按需访问,以支持机器学习和其他AI工作负载。EC2 P3实例提供了最新的Nvidia Corp.Tesla V100 GPU,每个节点最多八个GPU。AWS声称,这种高密度的价格/性能比其他任何云供应商提供的GPU实例高1.8至2倍,绝对性能高6倍。
改进的AI开发抽象:在过去的几年中,AWS逐渐转移到AI,ML和其他核心计算服务的更高抽象层。现在,所有这些功能以及基础云数据库都可通过云原生API进行容器化部署,作为容器协调器Kubernetes上的微服务,以及无服务器部署(作为AWS Lambda功能即服务)。其中大多数功能都可以通过Gluon抽象层进行编程,该层可以在AWS开发的Apache MXNet, Microsoft Cognitive Toolkit 和其他开源数据科学工作台中对最复杂的AI,ML和深度学习应用程序进行可视化开发。
先进的AI DevOps工具链和库:随着时间的流逝,AWS不断深化其解决方案,以帮助企业开发人员应对新的AI,ML和深度学习挑战。2015年,它推出了基于云的ML服务。在re:Invent 2016上,它引入了Amazon Polly的文本到语音预训练模型,Amazon Rekognition的图像分类和识别模型以及Amazon Lex的对话机器人。当时,它还启动了深度学习AMI,这是预装有各种深度学习框架的EC2实例。在re:Invent 2017上,AWS推出了Amazon SageMaker,它使数据科学家和开发人员能够构建,训练和部署机器学习模型。它建立在早期的努力基础上,以进一步简化AI和机器学习过程。这项完全托管的服务使开发人员能够从其S3数据湖中提取数据,
将AI推向边缘以嵌入到移动和物联网设备中:在re:Invent 2017上,AWS针对新的AWS Greengrass ML Inference推出了Greengrass增强功能,以实现更复杂的边缘部署,从而使ML模型可以直接部署到移动设备和其他设备上边缘设备(例如Amazon Alexa),在这些设备中,无论设备当前是否已连接到云,它们都可以驱动本地推断。它启动了AWS IoT Analytics,这项新服务支持通过AWS的QuickSight解决方案以及AWS SageMaker中内置的AI模型轻松分析IoT设备数据。它发布了AWS DeepLens,这是一款完全可编程的摄像机,开发人员可以将其与SageMaker,预构建的模型和代码示例一起使用,以构建和培训视频分析以在AWS云中进行流传输。
进入re:Invent 2018,Wikibon希望AWS专注于几个关键主题,以在其公共云中提高AI开发人员的生产力:
自动化AI开发
推动AI民主化
加快AI的访问,开发和运营
通过更复杂的云数据平台改善AI交付成果
利用深层数据改善对话式AI应用
维持真正开放的AI开发生态系统
一年前,AWS AI副总裁Swami Sivasubramanian(如图)在re:Invent 2017上的CUBE采访中讨论了这些开发人员生态系统的必要性。以下是一些要点:
自动化AI开发:“我们的目标是实际上将机器学习功能交给所有开发人员和数据科学家。那是SageMaker的一个端到端平台,人们可以一键式构建,点击,训练和部署这些模型。它支持所有流行的深度学习框架。它可以是TensorFlow,MXNet或PyTorch。我们不仅帮助培训,而且会自动调整我们使用机器学习构建这些东西的位置。非常强大。令我们兴奋的另一件事是……API服务……新的抽象层,应用开发人员不希望了解任何有关机器学习的知识,但他们想要转录音频以将语音转换为文本,或者将其转换或理解文字或分析视频。”
推动AI民主化:“当我开始深入学习时,我意识到这些技术具有变革性的能力。对于开发人员来说,以日常方式使用它太困难了,因为这些模型很难构建和训练。这就是为什么我们实际上将其视为多层策略,在其中我们迎合专家从业者和数据科学家的原因。对于他们,我们有SageMaker。然后,对于不想对机器学习一无所知的应用程序开发人员,他们说:“我给你一个音频文件,为我抄录”,或“我给你一个文本,获取我的见解或翻译。” 实际上,我们为他们提供了易于使用的API服务,这样他们就可以真正开始使用而无需了解TensorFlow或PyTorch是什么。”
加速AI的访问,开发和运营:“在亚马逊,我们已经使用机器学习已有20年了。我们一直在实现中心中利用机器学习作为推荐引擎,在这里我们使用机器人来挑选包裹,然后是Alexa和Amazon Go。我们实际上听到的一件事是,虽然TensorFlow或PyTorch或MXNet之类的框架很酷,但对于开发人员而言,使用它实在太难了。我们实际上并不介意使用Caffe或TensorFlow的用户。我们希望他们从创意到产品外壳都能成功。当我们与开发人员交谈时,此过程需要花费6到18个月的时间,这并不难。我们想做AWS对IT行业所做的计算存储和数据库工作。我们希望通过使入门变得非常容易来对机器学习做同样的事情。”
通过更复杂的云数据平台改善AI交付成果:“进入机器学习的数据将成为决定您训练得如何良好等方面的因素。在这里,数据科学家一直在说,存储,数据库和分析产品的存在对他们建立高度准确的模型至关重要。当您不仅在讨论数据时,实际上底层的数据库技术和存储技术确实很重要。S3是世界上最强大的数据缺失,它高度安全,可靠,可扩展且具有成本效益。”
利用深层数据来改进会话式AI应用程序:“ [Lex]被认为是自动语音识别和自然语言理解,即预先训练在我们的数据上。但是,当为自己的聊天机器人或语音应用程序自定义它时,您实际上可以添加自己的意图和几项内容,并专门为数据自定义基础深度学习模型。除了专门针对您的数据进行调整之外,您还可以利用我们训练的数据量。它只会越来越好。”
维持真正开放的AI开发生态系统:“在AWS中,当然有来自ISV [和] SI的数以万计的合作伙伴。软件行业是一个了不起的行业,它不是[赢家通吃]的市场。例如,在文档管理领域,即使我们拥有S3和WorkDocs,也并不意味着Dropbox和Box都不成功。尽管我可能构建了许多基础架构[服务],但我们在AWS中为任何初创公司或团队提供的架构都是相同的。如今,对于我的AI团队而言,它实际上就像一家初创公司,只是我可能留在AWS大楼中,但否则我没有任何内部API。这是相同的API。这是一个公平的竞争环境。”
自2017年re:Invent以来,AWS通过稳定的战略产品发布流满足了这些要求,这在SiliconANGLE中得到了广泛介绍。在Wikibon最近的大数据市场调查和其他研究中,我们也对它们进行了深入介绍。
要了解AWS高管,合作伙伴和客户现在所说的话,深入了解即将发布的公告,并获得有关其未来路线图的引人注目的概览,并收听 11月27日至29日星期二现场直播的CUBE。