上一页 1 2 3 4 5 6 ··· 9 下一页

2019年9月1日

吴恩达-机器学习+多特征线性回归梯度下降

摘要: 阅读全文

posted @ 2019-09-01 10:02 HYWZ 阅读(178) 评论(0) 推荐(0) 编辑

2019年8月29日

tf.control_dependencies

摘要: tf.control_dependencies()是用来控制计算流图的,给图中的某些节点指定计算的顺序。 原型: tf.control_dependencies(self, control_inputs) 该函数接受的参数control_inputs,是Operation或者Tensor构成的lis 阅读全文

posted @ 2019-08-29 23:41 HYWZ 阅读(568) 评论(2) 推荐(1) 编辑

神经网络全连接层+softmax:

摘要: 如下图:(图片来自StackExchange) 强化说明全连接层: 1.通常将网络最后一个全连接层的输入,即上面的x \mathrm{x}x,视为网络从输入数据提取到的特征。 2. 强化说明softmax: 阅读全文

posted @ 2019-08-29 23:40 HYWZ 阅读(1207) 评论(0) 推荐(0) 编辑

Tensorflow图级别随机数设置-tf.set_random_seed(seed)

摘要: tf.set_random_seed(seed) 可使得所有会话中op产生的随机序列是相等可重复的。 例如: tf.set_random_seed(1234) a = tf.random_uniform([1]) b = tf.random_normal([1]) # Repeatedly runn 阅读全文

posted @ 2019-08-29 23:36 HYWZ 阅读(2436) 评论(0) 推荐(0) 编辑

tensorflow-GPU配置

摘要: 在使用GPU版的TensorFlow跑程序的时候,如果不特殊写代码注明,程序默认是占用所有主机上的GPU,但计算过程中只会用其中一块。也就是你看着所有GPU都被占用了,以为是在GPU并行计算,但实际上只有其中一块在运行;另外的所有显卡都闲着,但其显存都被占用了,所以别人也用不了。不过这种情况通过在程 阅读全文

posted @ 2019-08-29 23:35 HYWZ 阅读(195) 评论(0) 推荐(0) 编辑

吴恩达-机器学习+线性代数

摘要: 阅读全文

posted @ 2019-08-29 21:36 HYWZ 阅读(133) 评论(0) 推荐(0) 编辑

2019年8月28日

吴恩达-机器学习+基础线性回归及优化

摘要: 阅读全文

posted @ 2019-08-28 23:35 HYWZ 阅读(153) 评论(0) 推荐(0) 编辑

python-生成器(generation)

摘要: 阐述思路是:迭代(iteration)、迭代器(iterator)、生成器(generator)。 迭代 迭代是重复反馈过程的活动,其目的通常是为了接近并到达所需的目标或结果。每一次对过程的重复被称为一次“迭代”,而每一次迭代得到的结果会被用来作为下一次迭代的初始值。 在python中,迭代通常是通 阅读全文

posted @ 2019-08-28 08:28 HYWZ 阅读(560) 评论(0) 推荐(0) 编辑

2019年8月27日

编码器内容-去噪

摘要: 自编码器(AutoEncoder) AutoEncoder由4个主要部分组成:Encoder、Bottleneck、Decoder、Reconstruction Loss。 AutoEncoder特点:采用类似无监督学习的方式对高维数据进行高效的特征提取和特征表示;在图像压缩方面表现得不好,由于在某 阅读全文

posted @ 2019-08-27 10:24 HYWZ 阅读(812) 评论(0) 推荐(0) 编辑

2019年8月25日

Group Convolution组卷积

摘要: 思路按照常规卷积到组卷积来。 常规卷积: 如果输入feature map尺寸为C∗H∗W C*H*WC∗H∗W,卷积核有N NN个,输出feature map与卷积核的数量相同也是N NN,每个卷积核的尺寸为C∗K∗K C*K*KC∗K∗K,N NN个卷积核的总参数量为N∗C∗K∗K N*C*K*K 阅读全文

posted @ 2019-08-25 17:04 HYWZ 阅读(2203) 评论(0) 推荐(0) 编辑

上一页 1 2 3 4 5 6 ··· 9 下一页

导航