随笔分类 - 机器学习
摘要:本篇是摘抄pytorch-handbook里面的,有兴趣可以看看。 损失函数(Loss Function) 损失函数(loss function)是用来估量模型的预测值(我们例子中的output)与真实值(例子中的y_train)的不一致程度,它是一个非负实值函数,损失函数越小,模型的鲁棒性就越好。
阅读全文
摘要:import torch x = torch.rand(2,2) x1 = x.numpy() # torch转换到numpy x2 = torch.from_numpy(x1) #numpy转换torch print("\n torch_x:\n",x, "\n numpy_x1:\n",x1,
阅读全文
摘要:官方文档 首先我们要知道,lmplot是用来绘制回归图的。 让我们来看看他的API: seaborn.lmplot(x, y, data, hue=None, col=None, row=None, palette=None, col_wrap=None, height=5, aspect=1, m
阅读全文
摘要:看了一篇博客,感觉写的很棒:PyTorch 的 Autograd
阅读全文
摘要:运行这段代码 import torch import numpy as np import matplotlib.pyplot as plt x = torch.ones(2,2,requires_grad=True) print('x:\n',x) y = torch.eye(2,2,requir
阅读全文
摘要:output = torch.max(input, dim) input输入的是一个tensor dim是max函数索引的维度0/1,0是每列的最大值,1是每行的最大值 实例: import torch import numpy as np import matplotlib.pyplot as p
阅读全文
摘要:本篇借鉴了这篇文章,如果有兴趣,大家可以看看:https://blog.csdn.net/geter_CS/article/details/84857220 1、交叉熵:交叉熵主要是用来判定实际的输出与期望的输出的接近程度 2、CrossEntropyLoss()损失函数结合了nn.LogSoftm
阅读全文
摘要:看pytorch中文文档摘抄的笔记。 class torch.optim.SGD(params, lr=, momentum=0, dampening=0, weight_decay=0, nesterov=False)[source] 实现随机梯度下降算法(momentum可选)。 Nestero
阅读全文
摘要:import torch x = torch.randn(3, requires_grad=True) y = x*2 print(y.data.norm()) print(torch.sqrt(torch.sum(torch.pow(y,2)))) #其实就是对y张量L2范数,先对y中每一项取平方
阅读全文
摘要:学习数据酷客做的笔记,懒得自己打字,就截屏记录一下,方便以后回顾。
阅读全文
摘要:1、机器学习最重要的任务就是根据已有的一系列证据(例如训练样本)来对未知变量(例如类别标记)进行估计和推测。2、概率图分为两类: 1)、使用有向无环图表示变量间的依赖关系,称为有向图模型或贝叶斯网(Bayesian network)。 2)、使用无向图表示变量间的相互关系,称为无向图模型或马尔可夫网
阅读全文
摘要:1、贝叶斯决策理论(Bayesian decision theory)是概率框架下实施决策的基本方法。2、欲使用贝叶斯判定准则来最小化决策风险,首先要获得后验概率P。3、极大似然估计(Maximum Likelihood Estimation,简称MLE)是根据数据采样来估计概率分布参数的经典算法。
阅读全文
摘要:1、支持向量(support vector):就是距离超平面最近的几个训练样本点使得满足某方程式的成立。个人理解就是超平面一侧的点(距离最近)与超平面另外一侧的点(距离最近)其绝对值是相等的。而这个方程式有两个关键量:w=(w1,w2..)法向量、b位移项。2、二次规划(Quadratic Prog
阅读全文
摘要:sklearn.datasets.make_blobs(n_samples=100, n_features=2, centers=3, cluster_std=1.0, center_box=(-10.0, 10.0), shuffle=True, random_state=None) 属性含义:
阅读全文