随笔分类 -  深度学习基础知识2021-2022

摘要:GAN反演的任务是使用预先训练的GAN模型将给定的图像反转回潜在代码 将图像编码为latent code然后再解码生成图像 阅读全文
posted @ 2022-02-10 14:58 Tomorrow1126 阅读(631) 评论(0) 推荐(0) 编辑
摘要:每个卷积核具有长、宽、深三个维度。 卷积核的长、宽都是人为指定的,长X宽也被称为卷积核的尺寸,常用的尺寸为3X3,5X5等;卷积核的深度与当前图像的深度(feather map的张数)相同,所以指定卷积核时,只需指定其长和宽两个参数。 例如,在原始图像层 (输入层),如果图像是灰度图像,其feath 阅读全文
posted @ 2022-02-05 16:35 Tomorrow1126 阅读(1360) 评论(0) 推荐(0) 编辑
摘要:一个矩阵的主成分是它的协方差矩阵的特征向量,及其对应的特征值排序。 一、步骤: 1.对所有样本进行中心化(减平均值) 2.计算样本的协方差矩阵 协方差是一种衡量两个变量之间相关性程度的方法。如果协方差为0,则变量不相关,正负号表示变量之间是正相关或负相关。它的计算公式如下: 协方差矩阵: 协方差矩阵 阅读全文
posted @ 2022-02-05 11:30 Tomorrow1126 编辑
摘要:https://blog.csdn.net/PanYHHH/article/details/107361827 一、 第一个是将梯度清零,因为训练的过程通常使用mini-batch方法,所以如果不将梯度清零的话,梯度会与上一个batch的数据相关,因此该函数要写在反向传播和梯度下降之前。(训练的时候 阅读全文
posted @ 2022-01-29 16:03 Tomorrow1126 阅读(1288) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/dss_dssssd/article/details/83892824 阅读全文
posted @ 2022-01-29 16:03 Tomorrow1126 阅读(60) 评论(0) 推荐(0) 编辑
摘要:https://lulaoshi.info/machine-learning/convolutional/batch-normalization 我们知道在神经网络训练开始前,都要对输入数据做一个归一化处理,那么具体为什么需要归一化呢? 归一化后有什么好处呢?原因在于神经网络学习过程本质就是为了学习 阅读全文
posted @ 2022-01-29 15:51 Tomorrow1126 阅读(149) 评论(0) 推荐(0) 编辑
摘要:一、AE https://medium.com/@jain.yasha/generative-models-an-overview-5079a1e9226a https://zhuanlan.zhihu.com/p/58111908 1.在制作AE时,我们需要考虑的关键因素是,决定潜在空间向量的维度 阅读全文
posted @ 2022-01-29 14:45 Tomorrow1126 阅读(168) 评论(0) 推荐(0) 编辑
摘要:https://www.cnblogs.com/wangguchangqing/p/12068084.html 这个链接也比较详细 阅读全文
posted @ 2022-01-29 11:51 Tomorrow1126 阅读(1136) 评论(0) 推荐(0) 编辑
摘要:(或称为下采样(subsampled)或降采样(downsampled))的主要目的有两个: 使得图像符合显示区域的大小; 生成对应图像的缩略图。 放大图像(或称为上采样(upsampling)或图像插值(interpolating))的主要目的是放大原图像,从而可以显示在更高分辨率的显示设备上。 阅读全文
posted @ 2022-01-28 15:10 Tomorrow1126 阅读(83) 评论(0) 推荐(0) 编辑
摘要:https://towardsdatascience.com/understanding-latent-space-in-machine-learning-de5a7c687d8d https://medium.com/@jain.yasha/gan-latent-space-1b32cd34cfd 阅读全文
posted @ 2022-01-28 14:05 Tomorrow1126 阅读(119) 评论(0) 推荐(0) 编辑
摘要:baseline一词应该指的是对照组,基准线,就是你这个实验有提升,那么你的提升是对比于什么的提升,被对比的就是baseline. 比如你要研究一个新的模型,你是在前人的模型基础上新增加了一些组件,别人也基本都是在这个模型上进行修改,那这个模型就叫做baseline model——基准模型 阅读全文
posted @ 2022-01-28 12:09 Tomorrow1126 阅读(1273) 评论(0) 推荐(0) 编辑
摘要:ETL,是英文Extract-Transform-Load的缩写,用来描述将数据从来源端经过抽取(extract)、转换(transform)、加载(load)至目的端的过程。ETL一词较常用在数据仓库,但其对象并不限于数据仓库。 软件名称Extract, transform, load过 程抽取、 阅读全文
posted @ 2022-01-28 12:08 Tomorrow1126 阅读(253) 评论(0) 推荐(0) 编辑
摘要:在python中,list变量前面加星号、字典变量前面加两个星号, 列表前面加星号作用是将列表解开成 len(list) 个独立的参数,传入函数 字典前面加两个星号,是将字典解开成独立的元素作为形参 比如: list1 = [1,2,3,4]list2 = [123,423,*list1] list 阅读全文
posted @ 2022-01-26 18:16 Tomorrow1126 阅读(178) 评论(0) 推荐(0) 编辑
摘要:https://zhuanlan.zhihu.com/p/24825503?refer=rdatamining 假设有个未知模型具有一个或多个待定的参数,且有一个数据集能够反映该模型的特征属性(训练集)。适应的过程是对模型的参数进行调整,以使模型尽可能反映训练集的特征。如果从同一个训练样本中选择独立 阅读全文
posted @ 2022-01-26 16:59 Tomorrow1126 阅读(121) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2022-01-26 16:40 Tomorrow1126 阅读(60) 评论(0) 推荐(0) 编辑
摘要:【1】超参数的“学院派”定义: 在机器学习的过程中,超参= 在开始机器学习之前,就人为设置好的参数。模型参数=通过训练得到的参数数据。通常情况下,需要对超参数进行优化,给学习机选择一组最优超参数,以提高学习的性能和效果 【2】怎么决定超参数? 1. 定义关于模型的更高层次的概念,如复杂性或学习能力。 阅读全文
posted @ 2022-01-26 16:09 Tomorrow1126 阅读(994) 评论(0) 推荐(0) 编辑
摘要:定义:感知机是二类分类的线性分类模型,旨在求出将训练数据进行线性划分的分离超平面,因此导入基于误分类的损失函数, 利用梯度下降法对损失函数进行极小化,求得感知机模型。 https://blog.csdn.net/huanyingzhizai/article/details/93525995 http 阅读全文
posted @ 2022-01-26 15:46 Tomorrow1126 阅读(165) 评论(0) 推荐(0) 编辑
摘要:weight形状为[out_features, in_features] 简单的说就是,在定义时使用的是[out_features, in_features],而在单层线性神经网络计算时使用的是weight的转置矩阵。 https://blog.csdn.net/dss_dssssd/article 阅读全文
posted @ 2022-01-25 17:56 Tomorrow1126 阅读(808) 评论(0) 推荐(0) 编辑
摘要:torch.matmul(input, other, out = None) 函数对 input 和 other 两个张量进行矩阵相乘。torch.matmul 函数根据传入参数的张量维度有很多重载函数。 阅读全文
posted @ 2022-01-25 17:54 Tomorrow1126 阅读(988) 评论(0) 推荐(0) 编辑
摘要:Dropout说的简单一点就是:我们在前向传播的时候,让某个神经元的激活值以一定的概率p停止工作,这样可以使模型泛化性更强, 因为它不会太依赖某些局部的特征 阅读全文
posted @ 2022-01-25 16:15 Tomorrow1126 阅读(205) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示