Fork me on GitHub
摘要: 有空时候把代码上传github 阅读全文
posted @ 2021-10-18 19:09 sy- 阅读(45) 评论(0) 推荐(0) 编辑
摘要: **正则化:**凡是可以减少泛化误差而不是减少训练误差的方法都是正则化方法。 在神经网络中参有两类,w叫权重,b叫偏置,w(权重)其实是模型里面未知数的系数,其取值情况决定了模型曲线什么样子,b的取值只会改变模型平移情况,L1L2正则化只针对w进行正则化处理。 L1L2是指L1L2范数,范数理解为把 阅读全文
posted @ 2021-10-17 11:20 sy- 阅读(78) 评论(0) 推荐(0) 编辑
摘要: VGG: 这个是VGG的网络模型架构: VGG( (features): Sequential( (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)) (1): ReLU(inplace=True) (2): Co 阅读全文
posted @ 2021-07-27 14:09 sy- 阅读(833) 评论(2) 推荐(1) 编辑
摘要: Pytorch GPU运算过程中会出现:“cuda runtime error(2): out of memory”这样的错误。通常,这种错误是由于在循环中使用全局变量当做累加器,且累加梯度信息的缘故,用官方的说法就是:"accumulate history across your training 阅读全文
posted @ 2021-07-27 11:13 sy- 阅读(1455) 评论(0) 推荐(0) 编辑
摘要: 一、神经网络 1、人工神经元 神经网络由很多的节点构成,这些节点又叫做人工神经元(或神经元) 他的结构如图所示: x1~xn是输入信号 wij代表从神经元j到神经元i的连接权值 θ表示一个阈值 ( threshold ),或称为偏置( bias ) 神经元i的输出与输入的关系表示为: yi=f(ne 阅读全文
posted @ 2021-07-09 17:23 sy- 阅读(3259) 评论(0) 推荐(1) 编辑
摘要: 评价神经网络好坏的一个重要一句就是: 以最少的代价使神经网络获得最好的准确率。 关于特征:特征就是对己而言,特征是某些突出性质的表现,于他而言,特征是区分事物的关键,所以,当我们要对事物进行类或者识别,我们实际上就是提取‘特征’,通过特征的表现进行判断。 特征选择(feature selection 阅读全文
posted @ 2021-07-07 21:24 sy- 阅读(227) 评论(0) 推荐(0) 编辑
摘要: 神经网络的基础模型是感知机,因此神经网络也可以叫做多层感知机,简称MLP。单层感知机叫做感知机,多层感知机约等于人工神经网络(ANN) **表征学习(**representation learning): 机器能够提取有意义的特征而无需人为干预。经典的例子就是Autoencoder,主要就是由加码器 阅读全文
posted @ 2021-07-07 19:43 sy- 阅读(59) 评论(0) 推荐(0) 编辑
摘要: 在我的机子上最开始使用pip或者使用conda的方法无法安装tensorflow,会显示一大堆的下载问题,当用豆瓣源进行下载的时候也不能解决。 试了五六种方法,大部分都是来创造一个单独的环境。 首先然后在Anaconda Prompt中输入:conda create -n tensorflow py 阅读全文
posted @ 2021-05-23 13:35 sy- 阅读(328) 评论(0) 推荐(0) 编辑
摘要: 什么是机器学习? 机器学习:简单来说就是机器通过一系列任务从经验(数据)中学习并且评估效果如何。 机器学习中很多地方都要根据目前的信息做出决策,信息熵主要是反应信息的不确定性,他的一个很重要的作用就是做决策时提供一定的判断依据,比如决策树根据熵来往下设置分支。 信息上实际反应的是一个信息的不确定度。 阅读全文
posted @ 2021-04-17 11:24 sy- 阅读(2740) 评论(0) 推荐(1) 编辑
摘要: 监督学习的问题无非就是minimizeyour error while regularizing your parameters 。也就是说在规范化参数的同时最小化误差。最小化误差就是为了让我们的模型拟合我们的训练数据,而规范化参数是为了防止我们的模型过分地拟合了我们的训练数据集。因为参数太多,会导 阅读全文
posted @ 2021-03-28 16:16 sy- 阅读(223) 评论(0) 推荐(0) 编辑