AWS已经成为为企业开发和部署复杂人工智能应用提供基于云的工具的强大供应商。
当我们展望即将在本月底举行的第七届re:Invent大会时,AWS持续为建立复杂AI生态系统而进行的深入投资给我们留下了深刻的印象:
-针对AI工作负载优化核心基础设施即服务云:最初的AWS EC2计算服务现在已经具有数十种实例类型,从通用到计算优化、内存优化、GPU加速和FPGA。
-在AWS云中实施先进的AI加速器硬件:AWS云提供了对最新GPU的按需使用,以支持机器学习和其他AI工作负载。EC2 P3实例提供最新的Nvidia Tesla V100 GPU,每个节点最多支持8个GPU。AWS称,与其他任何云厂商的GPU实例相比,这种高密度配置在性价比方面提高了1.8到2倍,绝对性能提高了6倍。
-改善AI开发抽象:在过去几年中,AWS已经转向更高的抽象层,用于AI、ML和其他核心计算服务。所有这些功能再加上底层云数据库,现在都可以使用云原生API进行容器化部署,作为容器编排器Kubernetes上的微服务,以及作为AWS Lambda功能即服务的无服务器部署。这其中大多数功能都可以通过Gluon抽象层进行编程,实现在AWS开发的Apache MXNet、Microsoft Cognitive Toolkit和其他开源数据科学工作平台中,实现对最复杂的AI、ML和深度学习应用的可视化开发。
-先进的AI DevOps工具链和库:每过一年,AWS都会深化其解决方案,以帮助企业开发人员解决新的AI、ML和深度学习挑战。2015年,AWS推出了基于云的ML服务。在re:Invent 2016大会上,AWS推出了一系列预训练模型,针对文本转换为语音服务Amazon Polly、图像分类和识别服务Amazon Rekognition、以及对话机器人Amazon Lex。当时AWS还推出了深度学习AMI,这是预装了各种深度学习框架的EC2实例。在re:Invent 2017大会上,AWS推出的Amazon SageMaker让数据科学家和开发人员能够构建、训练和部署机器学习模型,这是建立在早期旨在简化AI和机器学习的项目之上。这种完全托管的服务让开发人员能够从他们的S3数据湖中提取数据,利用预先优化的算法库,大规模构建和训练模型,通过ML驱动的超参数优化功能对其进行优化,并将它们实时部署到生产EC2云中实例。
-将AI推向边缘用于移动设备和物联网设备:在re:Invent 2017大会上,AWS曾发布了Greengrass的增强功能以实现更复杂的边缘部署,将新的AWS Greengrass ML Inference直接部署到移动设备和其他边缘设备(例如亚马逊Alexa),在这些设备上为本地推理提供支持,无论设备当前是否连接到云。此外AWS推出了AWS IoT Analytics,这项新服务支持通过AWS QuickSight解决方案以及AWS SageMaker内置的AI模型轻松分析物联网设备数据。AWS发布的AWS DeepLens,是一款完全可编程的摄像头,让开发人员用来——配合SageMaker预建模型和代码示例——构建和训练视频分析,以便在AWS云中进行流式传输。
在re:Invent 2018大会前夕,Wikibon预计AWS将会专注于几个在其公有中提高AI开发者生产力的关键主题上:
- AI开发自动化
- 推动人工智能的民主化
- 加速人工智能访问、开发和运营
- 通过更先进的云数据平台改进AI可交付成果
- 利用深层数据来改进会话式AI应用
- 维持真正开放的AI开发生态系统
一年前,AWS副总裁Swami Sivasubramanian曾在re:Invent 2017访谈中提及了开发者生态系统的必要性,以下是一些亮点:
-AI开发自动化:“我们的目标是真正地将机器学习功能交给所有开发者和数据科学家。SageMaker就是这样一个端到端的平台,让人们以一键式方式构建、点击、训练和部署这些模型。SageMaker支持所有流行的深度学习框架,例如TensorFlow、MXNet或PyTorch。我们不仅帮助训练,而且还自动调整我们在哪使用机器学习来构建这些东西。SageMaker非常强大。此外API服务作为一个新的抽象层,在这个层中应用开发者不需要了解任何有关机器学习的知识,但他们想要转录他们的音频,以便从语音转换为文本,或者对这些进行翻译,或者理解文本,或者分析视频。“
-推动人工智能的民主化:“当我深入了解深度学习的时候,我意识到这些技术所具有的变革力。开发者日常使用深度学习是很困难的,因为这些模型太难创建、太难训练。这就是为什么我们实际上将它视为一种多层次策略,以迎合专业从业者和数据科学家。对他们来说,我们有SageMaker。对于那些不想了解机器学习的应用开发者,他们会说,‘我会给你一个音频文件,为我转录一下’,或者‘我会给你文字,给我分析或翻译一下。’对于他们来说,我们实际上提供了简单易用的API服务,这样他们就可以开始工作,而不必了解什么是TensorFlow或PyTorch。”
-加速人工智能访问、开发和运营:“在Amazon,我们已经使用机器学习有20年时间了。我们一直在推荐引擎使用机器学习,在实现中心我们使用机器人来挑选包裹,还有Alexa和Amazon Go。我们听到人们说,像TensorFlow或PyTorch或MXNet这样的框架很酷,但开发人员很难利用它。我们并不介意用户使用Caffe或TensorFlow。我们希望他们在从创意到产品外壳的过程中取得成功。我们从开发者那里了解到,这个过程需要6到18个月,而且不应该这么困难。我们希望通过AWS所做的,为IT行业提供计算存储和数据库的功能。我们希望通过简化入门来为机器学习做出同样的贡献。”
-通过更先进的云数据平台改进AI可交付成果:“进入机器学习的数据,将衡量训练效果的决定性因素。这就是数据科学家们一直在说的存储的广度,以及对他们构建高度精确模型来说非常重要的数据库和分析产品。当你谈论的不仅仅是数据,实际上还有底层数据库技术和存储技术也是非常重要的。S3是目前最强大的数据存储库,具有高度安全性、可靠性、可扩展性和成本效益。”
-利用深层数据来改进会话式AI应用:“将[Lex]视为对我们数据预训练的自动语音识别和自然语言理解。但是,当你针对自己的聊天机器人或者语音应用对其进行自定义的时候,你实际上可以添加自己的一些意图和,并根据你的数据自定义底层深度学习模型。除了专门为你的数据进行的调优之外,你还可以利用我们已经训练过的数据。总之它只会变得越来越好。”
-维持真正开放的AI开发生态系统:“AWS有数万家合作伙伴,直接来自ISV和SI。软件行业是一个令人惊叹的行业,这不是一个赢家通吃的市场。例如,在文档管理领域,即使我们有S3和WorkDocs,也不意味着Dropbox和Box就不会取得成功。不管是为初创公司还是我自己的团队,AWS都提供了相同的基础设施,即使我可能构建了许多底层基础设施[服务]。现在对于我的AI团队来说,就像是一个创业公司,除了我可能还在AWS大楼办公,但否则我无法得到任何内部API。API都是相同的,这是一个公平的竞争环境。“