tf.nn.leaky_relu
摘要:**计算Leaky ReLU激活函数tf.nn.leaky_relu(features,alpha=0.2,name=None )参数: features:一个Tensor,表示预激活alpha:x<0时激活函数的斜率ame:操作的名称(可选)返回值:激活值** 非饱和激活函数:Leaky ReLU
阅读全文
posted @
2021-08-08 10:03
一杯明月
阅读(737)
推荐(0) 编辑
深度学习,神经网络的参考学习网站
摘要:参考1: https://github.com/zengbin93/blog/blob/master/notes_deeplearning.ai/14%20%E7%AC%AC%E4%B8%80%E8%AF%BE_%E7%AC%AC%E5%9B%9B%E5%91%A8%E5%AD%A6%E4%B9%A
阅读全文
posted @
2021-08-08 09:33
一杯明月
阅读(344)
推荐(0) 编辑
分步骤实现单隐层神经网络
摘要:第一课_第三周学习笔记 来源: https://www.jianshu.com/p/ea9b63b7c044 或者: https://github.com/zengbin93/blog/blob/master/notes_deeplearning.ai/13%20%E7%AC%AC%E4%B8%80
阅读全文
posted @
2021-08-07 12:34
一杯明月
阅读(413)
推荐(0) 编辑
训练集验证集测试集的概念
摘要:https://zhuanlan.zhihu.com/p/48976706
阅读全文
posted @
2021-07-30 09:23
一杯明月
阅读(33)
推荐(0) 编辑
泛化误差
摘要:https://zhuanlan.zhihu.com/p/48976706 机器学习简单流程: 使用大量和任务相关的数据集来训练模型; 通过模型在数据集上的误差不断迭代训练模型,得到对数据集拟合合理的模型; 将训练好调整好的模型应用到真实的场景中; 我们最终的目的是将训练好的模型部署到真实的环境中,
阅读全文
posted @
2021-07-30 08:36
一杯明月
阅读(332)
推荐(0) 编辑
pytorch深度学习cpu占用太高
摘要:参考1:https://blog.csdn.net/qq_32998593/article/details/92849585/ 虽然参考了网上的一些介绍,但: GPU占用正常,CPU主线程占用过高的问题依然存在。
阅读全文
posted @
2021-07-20 22:36
一杯明月
阅读(4054)
推荐(0) 编辑
logits
摘要:作者:王峰链接:https://www.zhihu.com/question/60751553/answer/1986650670来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 logit原本是一个函数,它是sigmoid函数(也叫标准logistic函数) 的反函数
阅读全文
posted @
2021-07-17 12:47
一杯明月
阅读(1418)
推荐(0) 编辑
交叉熵
摘要:https://www.jianshu.com/p/47172eb86b39 cross_entropy 交叉熵是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。 在介绍softmax_cross_entropy,binary_cross_entropy、sigmoid_cross_en
阅读全文
posted @
2021-07-17 00:34
一杯明月
阅读(475)
推荐(0) 编辑
深度学习查看GPU运行
摘要:功能:显示服务器上的GPU的情况 命令: nvidia-smi -l 功能:定时更新显示服务器上的GPU的情况 命令:watch -n 3 nvidia-smi 功能:设定刷新时间(秒)显示GPU使用情况
阅读全文
posted @
2021-06-11 18:15
一杯明月
阅读(332)
推荐(0) 编辑
K-Fold交叉验证
摘要:1.K-Fold 交叉验证概念 在机器学习建模过程中,通行的做法通常是将数据分为训练集和测试集。测试集是与训练独立的数据,完全不参与训练,用于最终模型的评估。在训练过程中,经常会出现过拟合的问题,就是模型可以很好的匹配训练数据,却不能很好在预测训练集外的数据。如果此时就使用测试数据来调整模型参数,就
阅读全文
posted @
2021-06-11 11:00
一杯明月
阅读(295)
推荐(0) 编辑
深度学习常用激活函数之 Sigmoid & ReLU & Softmax & tanh
摘要:1. 激活函数Rectified Linear Unit(ReLU) - 用于隐层神经元输出Sigmoid - 用于隐层神经元输出Softmax - 用于多分类神经网络输出Linear - 用于回归神经网络输出(或二分类问题) ReLU函数计算如下: Sigmoid函数计算如下: Softmax函数
阅读全文
posted @
2021-04-18 21:09
一杯明月
阅读(2111)
推荐(0) 编辑
精确率和召回率和F_score
摘要:2022.8.31更新: Content ConfusionMatrix Example Talbe ofconfusion Preference Confusion Matrix 在机器学习领域,混淆矩阵(confusion matrix),又称为可能性表格或是错误矩阵。它是一种特定的矩阵用来呈现
阅读全文
posted @
2021-01-08 22:21
一杯明月
阅读(1527)
推荐(0) 编辑
.npy文件读取
摘要:.npy文件: 用np.load()函数读取。
阅读全文
posted @
2020-10-27 16:51
一杯明月
阅读(4228)
推荐(0) 编辑
TensorFlow dataset.shuffle、batch、repeat的使用详解
摘要:https://www.jb51.net/article/178976.htm 直接看代码例子,有详细注释!! 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 import tensor
阅读全文
posted @
2020-10-24 14:51
一杯明月
阅读(1899)
推荐(0) 编辑
利用Open3D进行点云可视化
摘要:https://zhuanlan.zhihu.com/p/57215172 很多时候在python里面你要找一个3D点云可视化的库真的是难啊。你的选择可能是: pcl mayavi matplolib 但是以上都不好用,pcl甚至没有靠谱的python wrapper,唯一一个开源的已经很久没有维护
阅读全文
posted @
2020-10-23 12:49
一杯明月
阅读(11029)
推荐(0) 编辑
CUDA与cuDNN
摘要:https://www.jianshu.com/p/622f47f94784 1、什么是CUDA CUDA(ComputeUnified Device Architecture),是显卡厂商NVIDIA推出的运算平台。 CUDA是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的
阅读全文
posted @
2020-10-22 20:35
一杯明月
阅读(617)
推荐(0) 编辑
GCC与gcc,g++区别
摘要:https://www.cnblogs.com/liuzhenbo/p/11027197.html 看的Linux公社的一篇文章,觉得不错,内容复制过来了。 其实在这之前,我一直以为gcc和g++是一个东西,只是有两个不同的名字而已,今天在linux下编译一个c代码时出现了错误才找了一下gcc和g+
阅读全文
posted @
2020-10-22 12:08
一杯明月
阅读(479)
推荐(0) 编辑
np.random.choice的用法
摘要:>>>np.random.choice(5)#从[0, 5)中输出一个随机数 #相当于np.random.randint(0, 5) 2 >>>np.random.choice(5, 3)#在[0, 5)内输出3个随机数字并组成一维数组(ndarray) #相当于np.random.randint(
阅读全文
posted @
2020-10-21 16:54
一杯明月
阅读(2370)
推荐(0) 编辑