上一页 1 2 3 4 5 6 ··· 8 下一页
摘要: “ 基于libtorch的深度学习框架,其处理数据的主要基本单位是Tensor张量,我们可以把Tensor张量理解成矩阵,该矩阵的维度可以是1维、2维、3维,或更高维。” 本文我们来总结一下Tensor张量的常用操作。 01 — 打印张量的信息 打印张量的... 阅读全文
posted @ 2021-06-29 20:57 萌萌哒程序猴 阅读(1747) 评论(0) 推荐(1) 编辑
摘要: “ 前面我们使用libtorch实现的Alexnet网络对Cifar-10数据集进行训练和分类,准确率仅达到72.02%。本文我们在前文的基础上做一定修改,使准确率达到91.01%。” 前文链接: 1. 基于libtorch的Alexnet深度学习网络实现... 阅读全文
posted @ 2021-06-21 22:21 萌萌哒程序猴 阅读(322) 评论(0) 推荐(0) 编辑
摘要: “ 前文我们使用libtorch实现的Resnet34网络对Cifar-10进行分类,测试集的分类准确率仅有74.95%,本文我们在前文的基础上做了一些改进,使得测试集的分类准确率达到94.15%。” 深度学习这玩意儿就像炼丹一样,很多时候并不是按照纸面上... 阅读全文
posted @ 2021-06-18 21:46 萌萌哒程序猴 阅读(285) 评论(0) 推荐(0) 编辑
摘要: “ 在深度学习领域中,样本数据输入网络之前一般都做一个normalization预处理,把数据钳制到一定范围,确保不同样本的数据都属于同一量级,这样可加快训练速度,并提升训练模型的泛化能力。” 全局对比度归一化(Global contrast normal... 阅读全文
posted @ 2021-06-11 17:28 萌萌哒程序猴 阅读(403) 评论(0) 推荐(0) 编辑
摘要: 前文我们使用libtorch实现Alexnet网络来分类Cifar-10数据集,对测试集的分类准确率达到72.02%,这个准确率对于相对Lenet-5更深的网络来说并不理想。本文我们将尝试实现Resnet34残差网络来对Cifar-10分类,看看准确率是否... 阅读全文
posted @ 2021-06-04 18:06 萌萌哒程序猴 阅读(178) 评论(0) 推荐(0) 编辑
摘要: “ 在C++中,引用符号与取地址符号都是&,我们知道&用于取地址时,相当于取标识符的值的存储地址,那么如果该符号用于引用呢?” 开门见山:C++中,如果标识符a是标识符b的引用,那么对a进行任何操作,都等效于对b进行操作。比如: int b = 10;in... 阅读全文
posted @ 2021-06-01 20:39 萌萌哒程序猴 阅读(54) 评论(0) 推荐(0) 编辑
摘要: “ 所谓常量,就是在代码运行过程中值恒定不变的标识符,该标识符的值可以是一个常数,也可以是字符串。” 在C/C++中,通常使用define宏定义或者const来定义常量,比如: #define PI 3.1415926const int a = 5; 接下... 阅读全文
posted @ 2021-05-27 21:18 萌萌哒程序猴 阅读(149) 评论(0) 推荐(0) 编辑
摘要: “在前文中,我们搭建了Alexnet网络并用于Cifar-10数据集的训练与分类,可是对验证数据分类的准确率只达到56.59%,这个准确率对于比Lenet-5网络更复杂的Alexnet网络来说并不理想,在本文中,我们将在前文的基础上,尝试采取一些措施来提高... 阅读全文
posted @ 2021-05-22 16:18 萌萌哒程序猴 阅读(381) 评论(0) 推荐(0) 编辑
摘要: “野指针并不是指向NULL的指针,而是指向不确定地址的指针。由于其指向地址的不确定性,系统通过该指针访问的地址很可能是无法访问的,导致系统发生严重错误,即使可以被访问,读取到的数据往往也是错误的,因此野指针对程序系统运行的危害是致命的。” 我们在代码中经常... 阅读全文
posted @ 2021-05-19 00:03 萌萌哒程序猴 阅读(349) 评论(0) 推荐(0) 编辑
摘要: “上篇文章我们讲了Alexnet神经网络的结构与原理,我们知道该网络主要由5个卷积层、3个池化层、3个Affine层和1个Softmax层构成。本文我们将基于libtorch来实现该网络,并对Cifar-10数据进行训练、分类。” 由于原Alexnet网络... 阅读全文
posted @ 2021-05-15 21:36 萌萌哒程序猴 阅读(210) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 8 下一页