华为智能计算战略首次公开 多款芯片亮相 转载
雷锋网(公众号:雷锋网)12月21日消息,华为智能计算大会暨中国智能计算业务战略发布会正式召开,继5月份在北京宣布其基于“无边界计算”战略的智能计算业务布局后,华为再次提高了AI算力层面的竞争,将IT产品线中的服务器产品线提升为智能计算业务部,这也是华为AI战略的重要一环。
华为智能计算业务战略
算法、算力和数据推动着人工智能滚滚向前,历史上人工智能经历两次高潮和低谷,人工智能没有发展起来的两个根本原因,一是算法不成熟,一是算力跟不上,数据倒是相对容易的部分,当下深度学习算法的进展让人工智能加速普及,但算力问题仍然没有得到很好地解决。
简单来说,华为智能计算战略意在铸就“华为AI全栈、全场景”战略的基石。
华为官方资料显示,人工智能只在少数几个行业得到普及,比如互联网、公共安全等,而企业的AI渗透率只有4%,主要原因来自如下的四个挑战:
-
算力供应严重不平衡,稀缺而且昂贵;
-
很多传统行业对部署的场景要求高,环境恶劣多变;
-
云边的数据无法协同和互通;
-
专业技术要求门槛高,专业人才短缺。
针对如上难题,华为智能计算致力于通过芯片能力来实现超越客户期望的算力;通过普适的工程能力来满足恶劣环境的部署要求;通过云边协同和无缝的网络覆盖实现数据的协同和互通;通过一体化解决方案来降低人工智能使用的门槛。
邱隆是原来华为服务器产品线总裁,他现在的身份是是华为智能计算业务部总裁,邱隆指出,“原来由摩尔定律驱动的计算产业,面对爆发式的计算需求无以为继,人工智能给计算产业带来了四个重大挑战。华为智能计算将结合华为的四大能力,通过芯片和技术创新,来满足客户期望的算力;通过普适的工程能力来适应行业恶劣环境的部署要求;通过云边协同的架构和高带宽、低延迟、无缝的网络覆盖实现数据的协同和互通;通过一体化解决方案来降低人工智能使用的门槛,让AI更简单,像使用水电一样便利。最终实现数据中心的智能化,加速行业智能化进程,使能行业智能化再造。
从计算1.0时代的专用计算(大型机、小型机时代)、到计算2.0时代的通用计算(数据中心、x86架构),再到计算3.0时代的智能计算(全栈全场景),服务器相关厂商不仅要考虑业务需求的变化,更要考虑顺势而进,成为智能计算能力的提供商。
“芯”上华为
华为的智能计算是建立在芯片基础之上的,这从华为现场发布的诸多芯片也得到体现。
华为首次公布了2019年将正式推出全球首个智能管理芯片Hi1711,内置AI管理引擎与智能管理算法,提供智能故障管理能力,包含运算模块/IO模块/安全模块。
智能SSD控制芯片,华为在2005年即启动SSD控制芯片的研发,本次推出的智能SSD控制芯片采用16纳米制程工艺,PCIe NVMe与SAS融合,支持PCIe 3.0&SAS 3.0,PCIe热插拔,智能加速,多流,原子写,QoS,并且寿命延长20%。
华为此前发布的昇腾系列芯片同样是智能计算战略的一部分,包括极致高性能AI SoC昇腾310,单芯片计算密度最大的昇腾910等。
智能融合网络芯片,Hi1822是华为今年推出的第三代智能网络芯片,采用16纳米制程工艺,以太与FC融合,内置48个可编程数据转发核心,支持OVS和RoCEv1/v2协议卸载,15mpps转发性能、SR-IOV。
此外,雷锋网在现场看到,传闻已久的华为Arm服务器计算芯片正式亮相,代号为Hi1620的华为首款7nm数据中心芯片将于2019年推出,基于Arm v8 架构,并且华为自主设计了TaiShan 核,支持48/64核配置,2.6/3.0GHz,8 通道DDR4-2933。
华为正从芯片开始构建全栈全场景智能解决方案,使能行业智能化再造。华为智能计算当然不止是芯片,过往的服务器等沉淀都是组成了华为智能计算产品线,华为智能计算全家福包括:智能服务器(FusionServer)、企业智能云设施(FusionCube | FusionAccess)和人工智能系列产品(Atlas | Taishan | MDC)。
其中Atlas智能计算平台包括Atlas 200 AI加速模块、Atlas 300 AI加速卡、Atlas 500智能小站、Atlas 800 AI一体机,具备强算力、低功耗和易部署的优势,另外MDC 600移动数据中心也已经在不少自动驾驶场景中得到应用。
雷锋网了解到,如果说过去的计算围绕数据中心展开,那么当下计算已经超过数据中心边界。华为认为,数据在哪,计算就应该部署在哪,中心计算发展方兴未艾,边缘计算已呈爆炸式发展,华为的目标是使云边端协同使能行业智能化。
华为IT产品线总裁侯金龙表示,“我们正在进入智能世界,计算是其核心驱动力,随之对算力的需要也会更强,计算形态要更加丰富、更加多样化,同时对统一架构的计算平台也提出了巨大挑战。正是面对这一新的形势、新的挑战,华为智能计算聚焦行业的智能化转型需求,基于芯片、算法、架构等创新,携手合作伙伴构建共赢的生态,助力行业客户领跑数字经济,为智能化转型夺得先机。“
相关文章:
华为ALL in Al:全面公布AI战略及全栈全场景解决方案,AI芯片将不单独对外销售
“牙膏厂”英特尔终于要挤出10nm芯片了,而这些智能驾驶芯片企业纷纷选择了28nm工艺
雷锋网原创文章,未经授权禁止转载。详情见转载须知。
雷锋网(公众号:雷锋网) AI 科技评论按:日前,谷歌 AI 发布了最新成果 TF-Ranking,它是一个专门针对排序学习(learning-to-rank)应用的可扩展 TensorFlow 库。TF-Ranking 快速且易用,并能创建高质量的排序模型,对构建 web 搜索或新闻推荐等基于真实世界数据的排序系统感兴趣的人,都可以将 TF-Ranking 作为强稳的、可扩展的解决方案。
排序是一种以最大化整个列表效用为目的,对项目列表进行排序的过程,适用于搜索引擎、推荐系统、机器翻译、对话系统,甚至还能用于计算生物学等众多领域。在诸如这些(以及其他诸多)应用中,研究人员经常使用一系列称作排序学习的有监督的机器学习技术。在许多情况下,这些排序学习技术会被应用于大规模数据集,在这一场景中,TensorFlow 的可伸缩性会成为一个优势。然而,目前 TensorFlow 还不能直接支持学习排序。并且,现在也还没有其他专门针对排序学习技术规模化应用的开源库。
现在,谷歌 AI 宣布开源 TF-Ranking(https://github.com/tensorflow/ranking),它是一个可扩展的排序学习 TensorFlow 库。正如谷歌在最近发表的论文(https://arxiv.org/abs/1812.00073)中所描述的,TF-Ranking 提供了一个统一的框架,该框架包括一套最先进的排序学习算法,并且支持 Pairwise 和 Listwise 损失函数、多项目评分、排序度量优化和无偏见排序等等。
TF-Ranking 快速且易用,并能创建高质量的排序模型。该统一框架让机器学习研究人员、实践者和爱好者能够在单个库中评估和选择一系列不同的排序模型。此外,谷歌 AI 团队坚信一个有用的开源库,它的关键不仅在于提供合理的默认值(sensible default),而且还在于能够授权用户开发自定义模型。为此,他们提供了灵活的 API,让用户可以在 API 中定义和插入自定义的损失函数、评分函数和指标。
现有算法和指标支持
排序学习算法的目标是最小化在项目列表上定义的损失函数,以优化任意给定请求的排序。TF-Ranking 支持在此前工作(https://en.wikipedia.org/wiki/Learning_to_rank#Approaches)中所描述的各类标准的 pointwise,pairwise 和 listwise 损失函数。这确保了使用 TF-Ranking 库的研究人员能够重现和扩展先前的 baseline,并且他们的请求可以得到最明智的选择。此外,TF-Ranking 还可以通过嵌入来处理稀疏特征(如原始文本)以及扩展到数亿个训练实例。因此,任何对构建 web 搜索或新闻推荐等基于真实世界数据的排序系统感兴趣的人,都可以将 TF-Ranking 作为强稳的、可扩展的解决方案。
经验评估是所有机器学习或信息检索研究的重要组成部分。为了确保与先前工作的兼容性,TF-Ranking 支持许多常用的排序评价指标,包括 Mean Reciprocal Rank(MRR,https://en.wikipedia.org/wiki/Discounted_cumulative_gain)和 Normalized Discounted Cumulative Gain(NDCG,https://en.wikipedia.org/wiki/Discounted_cumulative_gain),同时也让研究人员在训练期间更方便在 TensorBoard(开源 TensorFlow 可视化仪表盘)上看到这些指标。
TensorBoard 上显示的基于训练步骤(X 轴)的 NDCG 指标 (Y 轴)示例,它表示了训练期间指标的总体进度。不同的方法可直接在仪表板上进行比较,并基于指标选出最佳模型。
多条目评分
TF-Ranking 支持一种新的评分机制,在新的评分机制中可以对多个条目进行联合评分,这是对只能对单个条目进行独立评分的传统评分机制的扩展。多条目评分面临的一个挑战是难以推断哪些条目必须进行分组并在子组中评分。然后,每个条目累积下来的分数将被用于排序。TF-Ranking 提供了一个 List-In-List-Out(LILO)API,来将所有这些逻辑放入导出的 TF 模型中。
TF-Ranking 库支持扩展自传统单条目评分的多条目评分架构。
正如谷歌 AI 在最近的工作(https://arxiv.org/abs/1811.04415)中所展示的,多条目评分在公共 LETOR 基准测试中的性能,与 RankNet,MART 和 LambdaMART 等最先进的排序学习模型相比具有竞争力。
排序评价指标优化
排序学习所面临的一个重要研究挑战是排序评价指标的优化(例如前面所提到的 NDCG 和 MRR)。虽然与 Area Under the Curve(AUC)之类的标准分类评价指标相比,这些评价指标能更好地衡量排序系统的性能,但可惜它们要么不连续,要么平滑。因此,这些评价指标的标准随机梯度下降优化存在困难。
在最近的一项工作(https://ai.google/research/pubs/pub47258)中,谷歌 AI 提出了一种新的方法——LambdaLoss,它为排序评价指标优化提供了一个统一的概率框架。在这个框架中,可以通过期望最大化的过程来设计和优化由评价指标驱动的损失函数。TF-Ranking 库集成了评价指标优化的最新成果,并提供了 LambdaLoss 的实现。谷歌 AI 表示,TF-Ranking 未来有望鼓舞和推动排序评价指标优化这一重要领域的更深入的研究进展。
无偏见排序学习
此前的研究(https://ai.google/research/pubs/pub45286)表明,给定一个项目的排序列表,用户更有可能重点查看前面几个结果,而忽略结果之间的相关性。这一发现激发了大家对于无偏见排序学习的研究兴趣,并且带来了无偏见评估和基于训练实例重复加权的几种无偏见学习算法的发展。
开启 TF-Ranking 的使用
TF-Ranking 实现了 TensorFlow Estimator 接口,它通过封装训练、评估、预测和导出服务,可以大大简化机器学习编程。
TF-Ranking 完美地集成了丰富的 TensorFlow 生态系统。如上所述,你可以使用 Tensorboard 将 NDCG 和 MRR 等排序评价指标可视化,以及使用这些评价指标选择最佳模型检查点。一旦你的模型准备就绪,便可使用 TensorFlow 服务(https://www.tensorflow.org/serving/),轻而易举地将其部署到生产。
如果大家有兴趣尝试 TF-Ranking,可以前往谷歌 AI 的 GitHub 存储库(https://github.com/tensorflow/ranking),并参考教程示例(https://github.com/tensorflow/ranking/tree/master/tensorflow_ranking/examples)。
Via:http://ai.googleblog.com/2018/12/tf-ranking-scalable-tensorflow-library.html 雷锋网 AI 科技评论编译。 雷锋网
雷锋网原创文章,未经授权禁止转载。详情见转载须知。
文章点评: