智健blog

上一页 1 2 3 4 5 6 7 ··· 9 下一页
摘要: import torch gpu_use= torch.cuda.is_available() print(gpu_use) # Decide which device we want to run on device = torch.device("cuda:0" if (torch.cuda.i 阅读全文
posted @ 2022-06-04 09:45 智健 阅读(356) 评论(0) 推荐(0) 编辑
摘要: Batch Normalization 为了解决深度网络训练时可能会出现的梯度消失、梯度爆炸或者,导致收敛速度变慢的 问题,使用批标准化的方法将每层的数据都规范到相同的均值和方差, 批标准化可以解决 internal convraiate shift,通过适当的使用较大的学习率,减少训练时间; 能够 阅读全文
posted @ 2022-06-02 21:46 智健 阅读(24) 评论(0) 推荐(0) 编辑
摘要: 检查下自己的python版本 需要大于3.6 阅读全文
posted @ 2022-04-17 21:09 智健 阅读(94) 评论(0) 推荐(0) 编辑
摘要: torchvision简介 torchvision是pytorch的一个图形库,它服务于PyTorch深度学习框架的,主要用来构建计算机视觉模型。以下是torchvision的构成: torchvision.datasets: 一些加载数据的函数及常用的数据集接口; torchvision.mode 阅读全文
posted @ 2022-04-17 11:15 智健 阅读(538) 评论(0) 推荐(1) 编辑
摘要: 梯度求法:分别求各个变量的偏导数,偏导数分别乘三个轴的单位向量,然后各项相加。 梯度的本意是一个向量,表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。 阅读全文
posted @ 2022-04-13 11:05 智健 阅读(4480) 评论(0) 推荐(0) 编辑
摘要: ①:一张图片矩阵m×n =》每个像素点经过k1×k2的patch滑动提取特征之后=》m×n个k1×k2的patch=》分别对这m×n个patch去平均值=》特征提取完毕=》将m×n个patch组合成一个新的矩阵X,每个patch当作为一列(长度为k1×k2),因此列的数量为m×n=》最终这张图片就变 阅读全文
posted @ 2021-11-15 21:57 智健 阅读(216) 评论(0) 推荐(0) 编辑
摘要: 过滤器与卷积核 首先众所周知,卷积核(kernel)是用于卷积运算的,因为卷积的运算时点乘运算,由于源数据(图像)是矩阵,所以卷积核也是一个二维的矩阵才可以做点乘运算,而过滤器(filter)是卷积核的集合 卷积核是二维的,而滤波器是三维的,过滤器是是由长、宽和深度指定的,比卷积核多一个深度。一个过 阅读全文
posted @ 2021-11-03 20:59 智健 阅读(272) 评论(0) 推荐(0) 编辑
摘要: ###什么是采样频率? 对于连续的信号,比如脑电信号。以脑电信号为例,我们在采集的时候需要设置一个采集的频率,这个频率就是间隔多长时间采集一次脑电信号。单位一般是HZ(赫兹),即每秒从连续信号中提取并组成离散信号的采样个数。 阅读全文
posted @ 2021-10-24 15:45 智健 阅读(772) 评论(0) 推荐(0) 编辑
摘要: ##vmware虚拟机ubuntu磁盘扩展不成功问题 需要注意以下几点 关机操作 删除所有快照才能对当前使用的磁盘进行扩展,否则只能重新创建新的磁盘 阅读全文
posted @ 2021-08-26 14:49 智健 阅读(137) 评论(0) 推荐(0) 编辑
摘要: 数组与张量 概念 ​ 张量是数学概念,数组是计算机的概念。数组是张量在计算机中的实现 含义 ​ 0维叫变量或0维数组,1维叫向量或1维数组,2维叫矩阵或2维数组,3维及以上叫张量或多维数组。 应用 ​ 张量是就是神经网络里的数组,叫它张量而不是数组是因为它有自己的特质,它是神经网络计算的基本单元,t 阅读全文
posted @ 2021-07-14 10:41 智健 阅读(799) 评论(0) 推荐(1) 编辑
上一页 1 2 3 4 5 6 7 ··· 9 下一页