08 2022 档案

摘要:一层layer可以有多个通道channel(或者说特征图)如果输入的是一个RGB图像,那么就会有3个通道。 "kernel"是被用来描述”filter”的结构。 一个"kernel"更倾向于是2D的权重矩阵。而'filter"则是指多个Kernel堆叠的3D结构。如果是一个2D的filter,那么两 阅读全文
posted @ 2022-08-21 09:33 Tomorrow1126 阅读(635) 评论(0) 推荐(0) 编辑
摘要:He初始化是何凯明等提出的一种鲁棒的神经网络参数初始化方法,动机同Xaviar初始化基本一致,都是为了保证信息在前向传播和反向传播过程中能够有效流动,使不同层的输入信号的方差大致相等。 关于参数的大部分假设同Xaviar初始化一致,但是,He初始化对应的是非线性激活函数(Relu 和 Prelu), 阅读全文
posted @ 2022-08-18 12:11 Tomorrow1126 阅读(222) 评论(0) 推荐(0) 编辑
摘要:先用def来定义函数,代码如下 def sq(x): return x*x map(sq,[y for y in range(10)]) 再用lambda函数来编写代码 map(lambda x: x*x,[y for y in range(10)]) 用lambda函数首先减少了代码的冗余,其次, 阅读全文
posted @ 2022-08-18 12:07 Tomorrow1126 阅读(16) 评论(0) 推荐(0) 编辑
摘要:softplus: softplus(x) = log(exp(x) + 1) 许多激活函数之一是Softplus函数,其定义为。 阅读全文
posted @ 2022-08-18 12:04 Tomorrow1126 阅读(579) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2022-08-16 13:57 Tomorrow1126 阅读(22) 评论(0) 推荐(0) 编辑
摘要:设置为None的维度不更新 阅读全文
posted @ 2022-08-16 08:49 Tomorrow1126 阅读(47) 评论(0) 推荐(0) 编辑
摘要:1.X[:,0]是numpy中数组的一种写法,表示对一个二维数组,取该二维数组第一维中的所有数据,第二维中取第0个数据, 直观来说,X[:,0]就是取所有行的第0个数据, X[:,1] 就是取所有行的第1个数据。 2.X[n,:]是取第1维中下标为n的元素的所有值。X[1,:]即取第一维中下标为1的 阅读全文
posted @ 2022-08-16 08:47 Tomorrow1126 阅读(242) 评论(0) 推荐(0) 编辑
摘要:tile() 平铺之意,用于在同一维度上的复制 tile( input, #输入 multiples, #同一维度上复制的次数 name=None ) with tf.Graph().as_default(): a = tf.constant([1,2],name='a') b = tf.tile( 阅读全文
posted @ 2022-08-16 08:41 Tomorrow1126 阅读(33) 评论(0) 推荐(0) 编辑
摘要:1.功能上:偏置可以加速神经网络拟合。 加了偏置项的神经网络有更复杂的参数结构,拟合能力更好。 2.形式上:偏置b可以视为控制每个神经元的阈值(-b等于神经元阈值)。 举例如:神经元的激活函数f为sign。每个神经元的输出即为sign(WX +b)。 当 wx < -b时, 输出值为-1,也就是抑制 阅读全文
posted @ 2022-08-16 08:40 Tomorrow1126 阅读(337) 评论(0) 推荐(0) 编辑
摘要:ndarray对象的内容可以通过索引或切片来访问和修改,与 Python 中 list 的切片操作一样。 ndarray 数组可以基于 0 - n 的下标进行索引,切片对象可以通过内置的 slice 函数,并设置 start, stop 及 step 参数进行,从原数组中切割出一个新数组。 impo 阅读全文
posted @ 2022-08-15 13:41 Tomorrow1126 阅读(71) 评论(0) 推荐(0) 编辑
摘要:tf.random_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None) tf.random_normal()函数用于从“服从指定正态分布的序列”中随机取出指定个数的值。 shape: 输出张量的形状, 阅读全文
posted @ 2022-08-15 10:48 Tomorrow1126 阅读(20) 评论(0) 推荐(0) 编辑
摘要:tf.cast()函数的作用是执行 tensorflow 中张量数据类型转换,比如读入的图片如果是int8类型的,一般在要在训练前把图像的数据格式转换为float32。 cast(x, dtype, name=None) 第一个参数 x: 待转换的数据(张量) 第二个参数 dtype: 目标数据类型 阅读全文
posted @ 2022-08-15 10:44 Tomorrow1126 阅读(48) 评论(0) 推荐(0) 编辑
摘要:自监督学习的方法主要可以分为 3 类: 1.基于上下文(Context based) 基于数据本身的上下文信息,我们其实可以构造很多任务,比如在 NLP 领域中最重要的算法 Word2vec 。Word2vec 主要是利用语句的顺序,例如 CBOW 通过前后的词来预测中间的词,而 Skip-Gram 阅读全文
posted @ 2022-08-13 21:19 Tomorrow1126 阅读(377) 评论(0) 推荐(0) 编辑
摘要:1.监督需要人工标记的数据 2.无监督不需要任何标记的数据,不依赖任何标签值,通过对数据内在特征的挖掘,找到样本间的关系,比如聚类 3.半监督学习利用少量有标签的数据和大量无标签的数据来训练网络 一、半监督学习可以分为:直推半监督学习、归纳半监督学习 (1)直推半监督学习 直推半监督学习(Semi- 阅读全文
posted @ 2022-08-13 20:33 Tomorrow1126 阅读(1147) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示