Azure Machine Learning的新特性
作者
在Microsoft Build 2018大会上,Matt Winkler做演讲介绍了Azure Machine Learing的新特性。
Azure Machine Learning(ML)平台构建在硬件平台层之上,支持用户自由选择任何工具和框架。如果在Python上运行,用户可在工具和框架中以三种方式实现服务,即对话式、预训练和定制AI。
Azure ML这是一种完全受控的平台,支持用户大规模地构建、部署和管理模型。它提供数据准备、模型的构建和训练,以及模型的部署支持敏捷开发,降低了一个模型从理念到实际可部署间的延迟。这一点非常必要的,因为用户并不能保证他所提出的模型会获得成功,或是可以发现模式。使用Azure ML,用户可以在任何地方部署AI,包括在云上、在本地、在没有因特网连接的远端设备,甚至拖拉机、传感器或相机等边缘(Edge)设备上。用户也可通过Azure ML获得遥测数据,帮助优化模型。
Azure ML的新特性涉及多个方面,包括简化开发、单容器部署以加速开发-测试循环、使用Azure Notebook提供的SDK实现控制,以及帮助人们着手解决一些特定的问题。
为解决上述问题,Microsoft当前在预览版中加入了多项功能。包括,使用硬件加速模型的Brainware项目,提供视觉、文本和预测功能的Azure ML软件包、ONNX模型库、对Azure Notebook改进的SDK更新、超参数调优服务、添加了ACI/AKS的批量AI计算目标,以及物联网部署上的改进等。
Azure ML软件包实现了当前框架中尚未提供的一些常用的视觉、文本和预测任务。它以Python软件包提供,可部署在Azure ML上。用户可以使用缺省功能,或对训练过程加以相当程度上的控制。
硬件加速模型使用FPGA,在性能上获得了显著的改进。它支持实时打分,这使得用户可在新数据到来时进行增量训练。例如,用户可对单个图像在1.8微秒内给出打分。这样,用户可以低代价在云规模上获得业界性能领先的实时AI能力。
ONNX模型库提供了一系列已开发的模型,用户可以直接使用这些模型,避免了在没有必要的情况下构建模型上的时间和开销。进而,用户可以跳过模型开发中的构建和训练步骤。ONNX支持通用交换格式,用户可在各处使用模型,例如在应用内部,或是部署到服务中。
SDK改进对提升了Azure Notebook。SDK可安装在任何可运行Python的地方,这使得计算目标易于配置,易于在笔记本上或大规模集群上运行训练作业。SDK中集成了基于Microsoft企业内部经验构建的超参数调优。用户也可以自行注册并部署模型。
超参数调优支持对适用的模型给出争取的配置。用户可以定义所需搜索的参数,以及搜索的方法(是基于格点,或是随机查找等)。它还提供了提前终止策略,以供用户在发现所用的模型正在变坏时使用。这使得用户避免在毫无结果的查找上产生浪费。Microsoft已发现,该特性在规模上可为用户降低约50%的计算费用。进而,用户用同样的代价可以搜索更大的空间。
在实现视觉硬件加速开发包上,Microsoft已与Qualcomm建立合作伙伴关系。用户可以部署经Azure ML训练的模型。Microsoft还提供了用于物联网边缘设备的Azure AI工具包。其设计适用场景包括零售收银机处理收据、农田中工作的拖拉机等。在这些场景中,并不具有IT架构。