01 2021 档案
摘要:TensorFlow简单线性回归 将针对波士顿房价数据集的房间数量(RM)采用简单线性回归,目标是预测在最后一列(MEDV)给出的房价。 波士顿房价数据集可从http://lib.stat.cmu.edu/datasets/boston处获取。 直接从 TensorFlow contrib 数据集加
阅读全文
摘要:TensorFlow csv读取文件数据(代码实现) 大多数人了解 Pandas 及其在处理大数据文件方面的实用性。TensorFlow 提供了读取这种文件的方法。 前面章节中,介绍了如何在 TensorFlow 中读取文件,本文将重点介绍如何从 CSV 文件中读取数据并在训练之前对数据进行预处理。
阅读全文
摘要:TensorFlow优化器及用法 函数在一阶导数为零的地方达到其最大值和最小值。梯度下降算法基于相同的原理,即调整系数(权重和偏置)使损失函数的梯度下降。 在回归中,使用梯度下降来优化损失函数并获得系数。本文将介绍如何使用 TensorFlow 的梯度下降优化器及其变体。 按照损失函数的负梯度成比例
阅读全文
摘要:TensorFlow损失函数 正如前面所讨论的,在回归中定义了损失函数或目标函数,其目的是找到使损失最小化的系数。本文将介绍如何在 TensorFlow 中定义损失函数,并根据问题选择合适的损失函数。 声明一个损失函数需要将系数定义为变量,将数据集定义为占位符。可以有一个常学习率或变化的学习率和正则
阅读全文
摘要:回归算法分类,常用回归算法解析 回归是数学建模、分类和预测中最古老但功能非常强大的工具之一。回归在工程、物理学、生物学、金融、社会科学等各个领域都有应用,是数据科学家常用的基本工具。回归通常是机器学习中使用的第一个算法。通过学习因变量和自变量之间的关系实现对数据的预测。例如,对房价估计时,需要确定房
阅读全文
摘要:TensorFlow常用Python扩展包 TensorFlow 能够实现大部分神经网络的功能。但是,这还是不够的。对于预处理任务、序列化甚至绘图任务,还需要更多的 Python 包。 下面列出了一些常用的 Python 包: Numpy:这是用 Python 进行科学计算的基础包。它支持n维数组和
阅读全文
摘要:深度学习与TensorFlow DNN(深度神经网络算法)现在是AI社区的流行词。最近,DNN 在许多数据科学竞赛/Kaggle 竞赛中获得了多次冠军。 自从 1962 年 Rosenblat 提出感知机(Perceptron)以来,DNN 的概念就已经出现了,而自 Rumelhart、Hinton
阅读全文
摘要:TensorFlow指定CPU和GPU方法 TensorFlow 支持 CPU 和 GPU。它也支持分布式计算。可以在一个或多个计算机系统的多个设备上使用 TensorFlow。 TensorFlow 将支持的 CPU 设备命名为“/device:CPU:0”(或“/cpu:0”),第 i 个 GP
阅读全文
摘要:主成分分析法(PCA)原理和步骤 主成分分析(Principal Component Analysis,PCA)是一种多变量统计方法,它是最常用的降维方法之一,通过正交变换将一组可能存在相关性的变量数据,转换为一组线性不相关的变量,转换后的变量被称为主成分。 可以使用两种方法进行 PCA,分别是特征
阅读全文
摘要:TensorFlow XLA加速编译器 加速线性代数器(Accelerated linear algebra,XLA)是线性代数领域的专用编译器。根据 https://www.tensorflow.org/performance/xla/,它仍处于实验阶段,用于优化 TensorFlow 计算。 X
阅读全文
摘要:使用CUDA Warp-Level级原语 NVIDIA GPU以SIMT(单指令,多线程)的方式执行称为warps 的线程组。许多CUDA程序通过利用warp执行来实现高性能。本文将展示如何使用cuda9中引入的原语,使warp级编程安全有效。 Figure 1: The Tesla V100 Ac
阅读全文
摘要:地理围栏API服务开发 要使用华为地理围栏服务API,需要确保设备已经下载并安装了HMS Core(APK),并将Location Kit的SDK集成到项目中。 指定应用权限 如果需要使用地理围栏服务API,需要在“AndroidManifest.xml”文件中申请ACCESS_FINE_LOCAT
阅读全文
摘要:活动识别API服务开发 要使用华为活动识别服务API,需要确保设备已经下载并安装了HMS Core(APK),并将Location Kit的SDK集成到项目中。 指定应用权限 在Android Q以下版本使用活动识别需要在“AndroidManifest.xml”文件中配置以下权限: <uses-p
阅读全文
摘要:定位服务API案例 要使用定位服务API,需要确保设备已经下载并安装了HMS Core服务组件,并将Location Kit的SDK集成到项目中。 指定应用权限 Android提供了两种位置权限: ACCESS_COARSE_LOCATION(粗略的位置权限)和ACCESS_FINE_LOCATIO
阅读全文
摘要:高精地图定位 业务简介 定位服务(Location Kit)采用卫星导航系统(Global Navigation Satellite System,以下简称GNSS)、Wi-Fi、基站等多途径的混合定位模式进行定位,赋予的应用快速、精准地获取用户位置信息的能力,构建全球定位服务能力,助力发展全球业务
阅读全文
摘要:HiCar SDK概述 HUAWEI HiCar SDK 是 HUAWEI HiCar(以下简称 HiCar )为汽车硬件设备提供的软件开发工具包,为汽车硬件厂商接入 HiCar 提供应用 API 接口用于实现厂商 HMI 应用,提供设备 API 接口用于对接硬件设备。 图1HUAWEI HiCar
阅读全文
摘要:HiCar人-车-家全场景智慧互联 (HUAWEI HiCar Smart Connection)解决方案,具备如下特点: 安全交互:以安全为前提的极简交互(Safety) 无感互联:手机/IoT 设备和汽车无感全互联(Smart Connection) 硬件互助:手机和汽车资源共享(Resourc
阅读全文
摘要:AIoT开放平台及应用 阿里AIoT开放平台,是阿里云IoT面向开发者的能力接入渠道,开发者可以在这里完成能力的申请、开通、部署、配置和集成开发等一些列工作。这些能力并不的独立交付,而是通过关联到行业平台实例的形式进行交付,以实现相同能力在不同平台实例中的隔离和权限控制。 开放平台整体逻辑及角色对应
阅读全文
摘要:AI+IoT+电池应用 AIoT电池 突破你的想象 将行业领先的电池电化学技术与前沿的能源物联网最佳实践相结合,利用智能物联技术开展电池全生命周期的管理优化和交叉领域的协同应用,解锁动力电池全生命周期价值。 AIoT手段提升产品研发效率 行驶数据积累,通过AI算法优化原材配方,数字化解构电池使用工况
阅读全文
摘要:智能物联网(AIoT,2020年)(下) 12工业物联网是AIoT在工业领域第一战场 工业物联网分为感知、决策、执行,OS与软件是大脑+神经 13工业场景下一步如何使用AIoT 不止工业物联网:用人工智能提升柔性生产的顶层设计 14城市场景的AIoT 集中在监管、调度、公共服务领域 15 城市:人类
阅读全文
摘要:智能物联网(AIoT,2020年)(中) 05 中国AIoT产业图谱 06 中国AIoT商业模式 标准程度越低人力和时间成本投入越多,2B2C模式附加值高 07 中国AIoT玩家分布简介 四类玩家,优势与策略各异 08 建筑人居类场景的AIoT 通过单品+系统联动场景,向“管家模式”迈进 增强安防措
阅读全文
摘要:智能物联网(AIoT,2020年)(上) 中国AloT的概念与现状 01智能物联网(AIoT)定义 人工智能与物联网的协同应用 02 AIoT2025产业瞭望:家庭AI管家 智能家居交互方式无感化,跨终端无缝体验 03 AIoT2025产业瞭望:建筑人居 人居关怀使五千万人居住和工作体验提升 04
阅读全文
摘要:AIoT 2020 年分析 2020年,从智能手机到智能手表,从智能摄像头到智能汽车,随着AI、芯片、云计算、通信等基础技术的逐渐成熟,又一个行业来到了历史性的时刻——AIoT。 从“万物互联”到“万物智联” 所谓的万物智联,或许正如写出《数字化生存》的麻省理工教授尼葛洛庞帝所言,“物联网时代的创新
阅读全文
摘要:TensorFlow解析常量、变量和占位符 最基本的 TensorFlow 提供了一个库来定义和执行对张量的各种数学运算。张量,可理解为一个 n 维矩阵,所有类型的数据,包括标量、矢量和矩阵等都是特殊类型的张量。 TensorFlow 支持以下三种类型的张量: 常量:常量是其值不能改变的张量。 变量
阅读全文
摘要:TensorFlow编程结构 TensorFlow 与其他编程语言非常不同。 首先通过将程序分为两个独立的部分,构建任何拟创建神经网络的蓝图,包括计算图的定义及其执行。起初这对于传统程序员来说看起来很麻烦,但是正是图定义和执行的分开设计让 TensorFlow 能够多平台工作以及并行执行,Tenso
阅读全文
摘要:对端边缘云网络计算模式:透明计算、移动边缘计算、雾计算和Cloudlet 概要 将数据发送到云端进行分析是过去几十年的一个突出趋势,推动了云计算成为主流计算范式。然而,物联网时代设备数量和数据流量的急剧增加,给容量有限的互联网和不可控的服务延迟带来了巨大的负担。单独使用云计算很难满足物联网应用对延迟
阅读全文
摘要:Harmony生命周期 系统管理或用户操作等行为,均会引起Page实例在其生命周期的不同状态之间进行转换。Ability类提供的回调机制能够让Page及时感知外界变化,从而正确地应对状态变化(比如释放资源),这有助于提升应用的性能和稳健性。 Page生命周期回调 Page生命周期的不同状态转换及其对
阅读全文
摘要:立体显示与BCN双稳态手性向列相 狭缝光栅立体显示 技术介绍: 人的左右眼间距大约是65MM,左右眼透过视差光栅看到不同的视角图像,经大脑融合形成立体视觉。 技术优点: 2D/3D可切换; 低成本; 制程容易; 良好的立体显示效果; 双稳态手性向列相 技术介绍: BCN采用SSCT技术。在无外加电场
阅读全文
摘要:宽视角SFT显示技术 技术介绍: SFT即Super-Fine TFT,增大了可视角度,丰富了色彩,提高了面板的透过率,并减小了响应时间。 技术优点: 超宽的视角; 双视角显示技术 技术介绍: 屏幕被分成可独立工作的两部分,是显示器像素发出的光通过光栅后分成两部分,在不同方向上可以看到不同的画面。例
阅读全文
摘要:SystemML大规模机器学习,优化算子融合方案的研究 摘要 许多大规模机器学习(ML)系统允许通过线性代数程序指定定制的ML算法,然后自动生成有效的执行计划。在这种情况下,优化的机会融合基本算子的熔合链的算子是无处不在的。这些机会包括 (1)更少的物化中间表示 (2)更少的输入数据扫描,以及 (3
阅读全文
摘要:HarmonyOS技术特性 硬件互助,资源共享 多种设备之间能够实现硬件互助、资源共享,依赖的关键技术包括分布式软总线、分布式设备虚拟化、分布式数据管理、分布式任务调度等。 分布式软总线 分布式软总线是手机、平板、智能穿戴、智慧屏、车机等分布式设备的通信基座,为设备之间的互联互通提供了统一的分布式通
阅读全文
摘要:HarmonyOS系统概述 系统定位 HarmonyOS是一款“面向未来”、面向全场景(移动办公、运动健康、社交通信、媒体娱乐等)的分布式操作系统。在传统的单设备系统能力的基础上,HarmonyOS提出了基于同一套系统能力、适配多种终端形态的分布式理念,能够支持手机、平板、智能穿戴、智慧屏、车机等多
阅读全文
摘要:GPU 硬件虚拟化Hardware Virtualization 1. Principles 一个物理GPU可以虚拟化为多个vGPUs。VMs可以绑定到vGPUs以直接访问一些物理GPU资源。 2. Features 基于NVIDIA网格卡提供GPU虚拟化,提高图形应用体验。GPU virtuali
阅读全文
摘要:Ascend Pytorch算子功能验证 编写测试用例 以add算子为例,测试脚本文件命名为:add_testcase.py。以下示例仅为一个简单的用例实现,具体算子的实现,需要根据算子定义进行完整的覆盖才能保证功能的基本正确。 引入依赖库。 2. import torch 3. import nu
阅读全文
摘要:Ascend Pytorch算子适配层开发 适配方法 找到和PyTorch算子功能对应的NPU TBE算子,根据算子功能计算出输出Tensor的size,再根据TBE算子原型构造对应的input/output/attr,传递给ACL完成TBE算子的执行。 说明: TBE算子实现的源文件存放路径由开发
阅读全文
摘要:Ascend昇腾计算 Ascend昇腾计算,是基于昇腾系列处理器构建的全栈AI计算基础设施及应用,包括昇腾系列芯片、系列硬件、芯片使能、AI框架、应用使能等。华为Atlas人工智能计算解决方案,基于昇腾系列AI处理器,通过模块、板卡、小站、服务器、集群等丰富的产品形态,打造面向“端、边、云”的全场景
阅读全文
摘要:使用Runtime执行推理(C++) 概述 通过MindSpore Lite模型转换后,需在Runtime中完成模型的推理执行流程。本教程介绍如何使用C++接口编写推理代码。 Runtime总体使用流程如下图所示: 包含的组件及功能如下所述: Model:MindSpore Lite使用的模型,通过
阅读全文
摘要:HiLink & LiteOS & IoT芯片让IoT开发简单高效 华为HiLink & LiteOS & IoT芯片使能三件套,让IoT开发更简单高效。下一代智能手机将会融合车、家、办公等场景,让消费者的全场景智慧化体验无处不在。与此同时,随着全球可连接设备数和人均设备数的快速增加,IoT连接技术
阅读全文
摘要:HiCar基本功能介绍 基本概述 一方面,基于操作系统超强的分布式能力,HUAWEI HiCar通过手机和汽车之间的连接,基于三层标准与能力,构建手机和汽车互助资源池,把手机的服务生态延伸到车内,实现“手机+车机”人机交互最优体验,“手机+车机+N端”互联互通、无感连接&服务无缝流转,以及最优硬件资
阅读全文
摘要:HiCar技术概述 HUAWEI HiCar(以下简称 HiCar)是华为提供的人-车-家全场景智慧互联(HUAWEI HiCar Smart Connection)解决方案,具备如下特点: 安全交互:以安全为前提的极简交互(Safety) 无感互联:手机/IoT 设备和汽车无感全互联(Smart
阅读全文
摘要:MindSpore部署图像分割示例程序 本端侧图像分割Android示例程序使用Java实现,Java层主要通过Android Camera 2 API实现摄像头获取图像帧,进行相应的图像处理,之后调用Java API 完成模型推理。 此处详细说明示例程序的Java层图像处理及模型推理实现,Java
阅读全文
摘要:MindSpore模型推理 如果想在应用中使用自定义的MindSpore Lite模型,需要告知推理器模型所在的位置。推理器加载模型的方式有以下三种: 加载本地模型。 加载远程模型。 混合加载本地和远程模型。 加载模型 方式一:加载并初始化本地模型。 加载模型。 Assets目录 MLCustomL
阅读全文
摘要:MindSpore特性支持类 Q:请问MindSpore支持梯度截断吗? A:支持,可以参考梯度截断的定义和使用。 Q:如何在训练神经网络过程中对计算损失的超参数进行改变? A:暂时还未有这样的功能。目前只能通过训练–>重新定义优化器–>训练,这样的过程寻找较优的超参数。 Q:第一次看到有专门的数据
阅读全文
摘要:MindSpore后端运行类 Q:如何在训练过程中监控loss在最低的时候并保存训练参数? A:可以自定义一个Callback。参考ModelCheckpoint的写法,此外再增加判断loss的逻辑: class EarlyStop(Callback): def __init__(self): se
阅读全文
摘要:MindSpore平台系统类 Q:MindSpore只能在华为自己的NPU上跑么? A: MindSpore同时支持华为自己的Ascend NPU、GPU与CPU,是支持异构算力的。 Q:MindSpore在Ascend 310上是否可以转AIR模型? A:Ascend 310不能导出AIR,需要在
阅读全文
摘要:MindSpore网络模型类 Q:使用MindSpore进行模型训练时,CTCLoss的输入参数有四个:inputs, labels_indices, labels_values, sequence_length,如何使用CTCLoss进行训练? A:定义的model.train接口里接收的data
阅读全文
摘要:MindSpore算子支持类 Q:在使用Conv2D进行卷积定义的时候使用到了group的参数,group的值不是只需要保证可以被输入输出的维度整除即可了吗?group参数的传递方式是怎样的呢? A:Conv2D算子是有这个约束条件的:当group大于1 时,其值必须要与输入输出的通道数相等。不要使
阅读全文
摘要:MindSpore基准性能 本文介绍MindSpore的基准性能。MindSpore网络定义可参考Model Zoo。 训练性能 ResNet 以上数据基于华为云AI开发平台ModelArts测试获得,是训练过程整体下沉至Ascend 910 AI处理器执行所得的平均性能。 业界其他开源框架数据可参
阅读全文
摘要:MindSpore技术理解(下) 4 GraphEngine 由于深度学习算法需要进行大量的计算,很多公司都设计了自己的深度学习专用处理器(如谷歌的张量处理器、阿里巴巴的含光等),华为也发布了自主设计的神经网络处理单元(Neural Processing Unit,NPU)——昇腾系列芯片。可以借助
阅读全文
摘要:MindSpore技术理解(上) 引言 深度学习研究和应用在近几十年得到了爆炸式的发展,掀起了人工智能的第三次浪潮,并且在图像识别、语音识别与合成、无人驾驶、机器视觉等方面取得了巨大的成功。这也对算法的应用以及依赖的框架有了更高级的要求。深度学习框架的不断发展使得在大型数据集上训练神经网络模型时,可
阅读全文
摘要:MindSpore张量mindspore::tensor MSTensor #include <ms_tensor.h> MSTensor定义了MindSpore Lite中的张量。 构造函数和析构函数 MSTensor MSTensor() MindSpore Lite MSTensor的构造函数
阅读全文
摘要:MindSpore API编程概述 总体架构 MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景覆盖三大目标,其中易开发表现为API友好、调试难度低,高效执行包括计算效率、数据预处理效率和分布式训练效率,全场景则指框架同时支持云、边缘以及端侧场景。 MindSpore总体架
阅读全文
摘要:MindSpore数据集mindspore::dataset ResizeBilinear #include <image_process.h> bool ResizeBilinear(LiteMat &src, LiteMat &dst, int dst_w, int dst_h) 通过双线性算法
阅读全文
摘要:MindSpore接口mindspore::api Context #include <context.h> Context类用于保存执行中的环境变量。 静态公有成员函数 Instance static Context &Instance(); 获取MindSpore Context实例对象。 公有
阅读全文
摘要:MindSpore应用目标 以下将展示MindSpore近一年的高阶计划,会根据用户的反馈诉求,持续调整计划的优先级。 总体而言,会努力在以下几个方面不断改进。 1. 提供更多的预置模型支持。 2. 持续补齐API和算子库,改善易用性和编程体验。 3. 提供华为昇腾AI处理器的全面支持,并不断优化性
阅读全文
摘要:MindSpore图像分类模型支持(Lite) 图像分类介绍 图像分类模型可以预测图片中出现哪些物体,识别出图片中出现物体列表及其概率。 比如下图经过模型推理的分类结果为下表: 类别 概率 plant 0.9359 flower 0.8641 tree 0.8584 houseplant 0.786
阅读全文
摘要:MindSpore静态图语法支持 概述 在Graph模式下,Python代码并不是由Python解释器去执行,而是将代码编译成静态计算图,然后执行静态计算图。 关于Graph模式和计算图,可参考文档:https://www.mindspore.cn/tutorial/training/zh-CN/r
阅读全文
摘要:MindArmour差分隐私 总体设计 MindArmour的Differential-Privacy模块,实现了差分隐私训练的能力。模型的训练主要由构建训练数据集、计算损失、计算梯度以及更新模型参数等过程组成,目前MindArmour的差分隐私训练主要着力于计算梯度的过程,通过相应的算法对梯度进行
阅读全文
摘要:MindInsight张量可视设计介绍 特性背景 张量可视,能够帮助用户直观查看训练过程中的Tensor值,既支持以直方图的形式呈现Tensor的变化趋势,也支持查看某次step的具体Tensor值。Tensor包括权重值、梯度值、激活值等。 总体设计 Tensor可视主要是解析由MindSpore
阅读全文
摘要:MindInsight计算图可视设计 特性背景 计算图可视的功能,主要协助开发者在下面这些场景中使用。 开发者在编写深度学习神经网络的代码时,可以使用计算图的功能查看神经网络中算子的数据流走向,以及模型结构。 计算图还可以方便开发者查看指定节点的输入和输出节点,以及所查找的节点的属性信息。 开发者在
阅读全文
摘要:MindInsight训练可视整体设计介绍 MindInsight是MindSpore的可视化调试调优组件。通过MindInsight可以完成训练可视、性能调优、精度调优等任务。 训练可视功能主要包括训练看板、模型溯源、数据溯源等功能,训练看板中又包括标量、参数分布图、计算图、数据图、数据抽样、张量
阅读全文
摘要:MindSpore Lite整体架构介绍 MindSpore Lite框架的总体架构如下所示: 前端(Frontend): 负责模型生成,用户可以通过模型构建接口构建模型,将第三方模型和MindSpore训练的模型转换为MindSpore Lite模型,其中第三方模型包括TensorFlow Lit
阅读全文
摘要:MindSpore整体架构介绍 MindSpore框架架构总体分为MindSpore前端表示层、MindSpore计算图引擎和MindSpore后端运行时三层。 MindSpore前端表示层(MindExpression,简称ME) 该部分包含Python API、MindSpore IR(Inte
阅读全文
摘要:MindSpore基本原理 MindSpore介绍 自动微分 自动并行 安装 pip方式安装 源码编译方式安装 Docker镜像 快速入门 文档 MindSpore介绍 MindSpore是一种适用于端边云场景的新型开源深度学习训练/推理框架。 MindSpore提供了友好的设计和高效的执行,旨在提
阅读全文
摘要:ONNX 实时graph优化方法 ONNX实时提供了各种图形优化来提高模型性能。图优化本质上是图级别的转换,从小型图简化和节点消除,到更复杂的节点融合和布局优化。 图形优化根据其复杂性和功能分为几个类别(或级别)。可以在线或离线执行。在联机模式下,优化在执行推断之前完成,而在脱机模式下,实时将优化的
阅读全文
摘要:Linux下Flash-LED的处理 一些LED设备提供两种模式-torch和flash。在LED子系统中,LED类(参见Linux下的LED处理)和LED Flash类,分别支持这些模式。torch模式相关的功能在默认情况下启用,只有当驱动程序通过设置LED_DEV_CAP_flash标志来声明时
阅读全文
摘要:视频处理单元Video Processing Unit VPU处理全局视频处理,它包括时钟门、块复位线和电源域的管理。 缺少什么: •完全重置整个视频处理硬件块 •VPU时钟的缩放和设置 •总线时钟门 •启动视频处理硬件块 •启动HDMI控制器和PHY 视频处理单元 显示控制器由以下几个组件组成:
阅读全文
摘要:OpenGL在图形管道中调用了什么用户模式图形驱动程序(UMD)? 图形硬件供应商,需要为显示适配器编,编写用户模式显示驱动程序。用户模式显示驱动程序,是由Microsoft Direct3D运行时加载的动态链接库(DLL)。用户模式显示驱动程序,必须至少支持Direct3D版本9 DDI。 e.g
阅读全文
摘要:MLIR算子量化Quantization 本文概述了MLIR量化系统的设计。虽然术语“量化”是高度过载的,用于将浮点计算转换为以整数数学表示,适配的变量进行推理的技术的相当窄的范围,如低位深度推理引擎(如TFLite)所支持的,各种加速器硬件和许多DSP。 很大程度上受到了本文所采用的方法的启发,其
阅读全文
摘要:最大限度地减少块输出中间结果的计算和存储 Expression Folding 表达式折叠 表达式折叠优化代码,以最小化块输出处中间结果的计算,并将这些结果存储在临时缓冲区或变量中。启用“表达式折叠”时,代码生成器将块计算折叠(折叠)为单个表达式,而不是为模型中的每个块生成单独的代码语句和存储声明。
阅读全文
摘要:向量算子优化Vector Operation Optimization 查看MATLAB命令View MATLAB Command 示例显示Simulink®编码器™ ,将生成向量的块输出,设置为标量,优化生成的代码,例如Mux、Sum、Gain和Bus。这种优化通过用局部变量替换临时局部数组来减少
阅读全文
摘要:用OpenCV进行摄像机标定 照相机已经存在很长时间了。然而,随着廉价针孔相机在20世纪末的引入,日常生活中变得司空见惯。不幸的是,这种廉价伴随着它的代价:显著的扭曲。幸运的是,这些常数,通过校准和一些重新映射,可以纠正这一点。此外,通过校准,还可以确定相机的自然单位(像素)和真实世界单位(例如毫米
阅读全文
摘要:摄像头标定GML Camera Calibration GML Camera Calibration官方版是一款十分优秀出色的相机标定软件,GML Camera Calibration官方版界面友好,功能实用,可以帮助用户轻松快捷的计算相机的内外参数,不仅如此,GML Camera Calibrat
阅读全文
摘要:CUDA 7流简化并发 异构计算是指有效使用系统中的所有处理器,包括CPU和GPU。为此,应用程序必须在多个处理器上同时执行功能。CUDA应用程序通过在流(按顺序执行的命令序列)中,执行异步命令来管理并发性。不同的流可能同时执行,或彼此相对执行命令。 在不指定流的情况下执行异步CUDA命令时,运行时
阅读全文
摘要:C ++基本输入/输出 本文将学习如何使用cin对象从用户那里获取输入,并使用cout对象在示例的帮助下向用户显示输出。 C ++输出 在C ++中,cout将格式化的输出发送到标准输出设备,例如屏幕。将cout对象与<<运算符一起使用以显示输出。 示例1:字符串输出 #include <iostr
阅读全文
摘要:C ++变量,文字和常量 本文将借助示例来学习C ++中的变量,文字和常量。 C ++变量 在编程中,变量是用于保存数据的容器(存储区)。 为了指示存储区域,应该为每个变量赋予唯一的名称(标识符)。例如, int age = 14; 这里, age是int数据类型的变量,为其分配了一个整数值14。
阅读全文
摘要:nvGRAPH三角形计数和遍历示例 #include “ stdlib.h” #include“ inttypes.h” #include“ stdio.h” #include“ nvgraph.h” #define check( a )\ {\ nvgraphStatus_t status =(a
阅读全文
摘要:TensorRT深度学习训练和部署 NVIDIA TensorRT是用于生产环境的高性能深度学习推理库。功率效率和响应速度是部署的深度学习应用程序的两个关键指标,因为它们直接影响用户体验和所提供服务的成本。Tensor RT自动优化训练好的神经网络,以提高运行时性能,与仅使用通用CPU的深度学习推理
阅读全文
摘要:TensorRT 数据和表格示例 TensorRT 7.1在绑定索引方面比其前身更加严格。以前,允许错误配置文件的绑定索引。考虑一个网络,该网络具有四个输入,一个输出,以及在其中的三个优化配置文件 IBuilderConfig。该引擎有15个绑定,每个优化配置文件有5个绑定,概念上被组织为一个表:
阅读全文
摘要:TensorRT原理图示 NVIDIA的核心® TensorRT™是有助于在NVIDIA图形处理单元(GPU)的高性能推理一个C ++库。它旨在与TensorFlow,Caffe,PyTorch,MXNet等训练框架以互补的方式工作。它专门致力于在GPU上快速有效地运行已经受过训练的网络,以生成结果
阅读全文
摘要:TensorRT数据格式说明 NVIDIA ® TensorRT™支持不同的数据格式。需要考虑两个方面:数据类型和布局。 数据类型格式 数据类型是每个单独值的表示。它的大小决定了数值的范围和表示的精度;分别是FP32(32位浮点或单精度),FP16(16位浮点或半精度),INT32(32位整数表示)
阅读全文
摘要:6. 杂项说明 6.1. warp级原语 warp作为执行的原始单元(自然位于线程和块之间),重要性对CUDA程序员显而易见。从SM 1.x开始,NVIDIA开始添加专门针对thread的指令。 Vote CUDA体系结构是32位的,并且warp由32个线程组成,这些线程与评估条件,向warp中的每
阅读全文
摘要:GPU编程和流式多处理器(六) 5. 纹理和表面 读取和写入纹理和表面的指令,所引用的隐式状态,比其他指令要多得多。header中包含诸如基地址,尺寸,格式和纹理内容的解释之类的参数,该header是一种中间数据结构,其软件抽象称为纹理参考或表面参考。当开发人员操纵纹理或表面引用时,CUDA运行时r
阅读全文
摘要:GPU编程和流式多处理器(五) 4. 条件代码 硬件实现了“条件代码”或CC寄存器,其中包含用于整数比较的常用4位状态向量(符号,进位,零,溢出)。可以使用比较指令(例如ISET)来设置这些CC寄存器,并且它们可以通过谓词或发散来指导执行流程。预测允许(或禁止)在warp内基于每个线程执行指令,而分
阅读全文
摘要:GPU编程和流式多处理器(四) 3.2. 单精度(32位) 单精度浮点支持是GPU计算的主力军。GPU已经过优化,可以在此数据类型上原生提供高性能,不仅适用于核心标准IEEE操作(例如加法和乘法),还适用于非标准操作(例如对先验的近似(例如sin()和log()))。32位值与整数保存在同一寄存器文
阅读全文
摘要:GPU编程和流式多处理器(三) 3. Floating-Point Support 快速的本机浮点硬件是GPU的存在理由,并且在许多方面,它们在浮点实现方面都等于或优于CPU。全速支持异常可以根据每条指令指定直接舍入,特殊功能单元可为六种流行的单精度先验函数,提供高性能的近似函数。相比之下,x86
阅读全文
摘要:GPU编程和流式多处理器(二) 2. 整数支持 SM具有32位整数运算的完整补充。 加法运算符的可选否定加法 乘法与乘法加法 整数除法 逻辑运算 条件码操作 to/from浮点转换 其它操作(例如,SIMD指令用于narrow整数,population人口计数,查找第一个零) CUDA通过标准C运算
阅读全文
摘要:GPU编程和流式多处理器 流式多处理器(SM)是运行CUDA内核的GPU的一部分。本章重点介绍SM的指令集功能。 流式多处理器(SM)是运行我们的CUDA内核的GPU的一部分。每个SM包含以下内容。 可以在执行线程之间划分的数千个寄存器 几个缓存: –共享内存,用于线程之间的快速数据交换 –恒定高速
阅读全文
摘要:CloudHub概述 CloudHub CloudHub是cloudcore的一个模块,是Controller和Edge端之间的中转。它同时支持基于websocket的连接以及QUIC协议访问。Edgehub可以选择一种协议来访问cloudhub。CloudHub的功能是启用边端与控制器之间的通信。
阅读全文
摘要:Kubeedge Edged概述 Overview EdgeD是管理节点生命周期的边缘节点模块。它可以帮助用户在边缘节点上部署容器化的工作负载或应用程序。这些工作负载可以执行任何操作,从简单的远程遥测数据操作到分析或ML推理等等。使用kubectl云端的命令行界面,用户可以发出命令来启动工作负载。
阅读全文
摘要:3D MinkowskiEngine稀疏模式重建 本文看一个简单的演示示例,该示例训练一个3D卷积神经网络,该网络用一个热点向量one-hot vector重构3D稀疏模式。这类似于Octree生成网络ICCV'17。输入的one-hot vector一热向量,来自ModelNet40数据集的3D计
阅读全文
摘要:MinkowskiEngine多GPU训练 目前,MinkowskiEngine通过数据并行化支持Multi-GPU训练。在数据并行化中,有一组微型批处理,这些微型批处理将被送到到网络的一组副本中。 首先定义一个网络。 import MinkowskiEngine as ME from exampl
阅读全文
摘要:MinkowskiEngine语义分割 要运行示例,请安装Open3D与PIP安装open3d-python。 cd /path/to/MinkowskiEngine python -m examples.indoor 细分酒店房间 运行示例时,将看到一个旅馆房间和房间的语义分割。运行示例时,以交互
阅读全文
摘要:MinkowskiEngine demo ModelNet40分类 本文将看一个简单的演示示例,该示例训练用于分类的3D卷积神经网络。输入是稀疏张量,卷积也定义在稀疏张量上。该网络是以下体系结构的扩展,但具有剩余的块和更多的层。 创建ModelNet40数据加载器 首先,需要创建一个数据加载器,以返
阅读全文
摘要:MinkowskiEngine基准测试 介绍卷积层和小型U网络的前馈和后馈通过时间。可以将具有相同张量步幅,步幅和内核偏移的内核映射重新用于其他层,可以在大型nueral网络中使用的所有层上,分摊此页面中实验报告的时间。 使用Titan X进行实验。 实验设置 对于单卷积层实验,使用以下设置。 im
阅读全文
摘要:Miscellaneous Classes杂类 内核生成器 class MinkowskiEngine.KernelGenerator(kernel_size = -1,stride = 1,dilation = 1,is_transpose = False,region_type = <Regio
阅读全文
摘要:MinkowskiEngine实用函数和类 sparse_quantize MinkowskiEngine.utils.sparse_quantize(coords, feats=None, labels=None, ignore_label=- 100, return_index=False, r
阅读全文
摘要:Minkowski坐标管理 坐标键 classMinkowskiEngine.CoordsKey(D) __init__(D) 初始化self. See help(type(self))有关准确的签名。 getKey() getTensorStride() isKeySet() setKey(key
阅读全文
摘要:Minkowski修剪 Minkowski修剪 Class MinkowskiEngine.MinkowskiPruning 从MinkowskiEngine.SparseTensor中删除指定的坐标。 __init__() 初始化由nn.Module和ScriptModule共享的内部模块状态。
阅读全文
摘要:MinkowskiNonlinearities非线性 MinkowskiReLU class MinkowskiEngine.MinkowskiReLU(*args, **kwargs) __init__(*args, **kwargs) 初始化由nn.Module和ScriptModule共享的内
阅读全文
摘要:MinkowskiBroadcast广播 MinkowskiBroadcastAddition广播加法 class MinkowskiEngine.MinkowskiBroadcastAddition 将缩小的特征广播到所有输入坐标。 第一个参数采用稀疏张量。第二个参数采用简化为原点的特征。通常可以
阅读全文
摘要:MinkowskiPooling池化(下) MinkowskiPoolingTranspose class MinkowskiEngine.MinkowskiPoolingTranspose(kernel_size, stride, dilation=1, kernel_generator=None
阅读全文
摘要:MinkowskiPooling池化(上) 如果内核大小等于跨步大小(例如kernel_size = [2,1],跨步= [2,1]),则引擎将更快地生成与池化函数相对应的输入输出映射。 如果使用U网络架构,请使用相同功能的转置版本进行上采样。例如pool = MinkowskiSumPooling
阅读全文
摘要:稀疏张量基础 稀疏张量是稀疏矩阵的高维扩展,其中非零元素表示为一组索引和关联值。 Data Generation 可以通过提取非零元素直接生成数据。本文展示了一个简单的2D数组,其中心有5个非零元素。 data = [ [0, 0, 2.1, 0, 0], [0, 1, 1.4, 3, 0], [0
阅读全文
摘要:稀疏张量网络 稀疏张量 在传统语音,文本或图像数据中,特征是密集提取的。因此,用于这些数据的最常见表示形式是矢量,矩阵和张量。但是,对于3维扫描或什至更高维的空间,这样的密集表示效率不高,因为有效信息仅占空间的一小部分。取而代之,只能将信息保存在空间的非空区域上,这与将信息保存在稀疏矩阵上的方式类似
阅读全文
摘要:英伟达TRTTorch PyTorch JIT的提前(AOT)编译Ahead of Time (AOT) compiling for PyTorch JIT TRTorch是PyTorch / TorchScript的编译器,通过NVIDIA针对NVIDIA GPU的TensorRT深度学习优化器和
阅读全文
摘要:闵可夫斯基引擎Minkowski Engine Minkowski引擎是一个用于稀疏张量的自动微分库。它支持所有标准神经网络层,例如对稀疏张量的卷积,池化,解池和广播操作。有关更多信息,请访问文档页面。 pip install git+https://github.com/NVIDIA/Minkow
阅读全文