摘要:
hint: Updates were rejected because the tip of your current branch is behind hint: its remote counterpart. Integrate the remote changes (e.g. hint: 'git pull ...') before pushing aga... 阅读全文
摘要:
自动求导机制是pytorch中非常重要的性质,免去了手动计算导数,为构建模型节省了时间。下面介绍自动求导机制的基本用法。#自动求导机制import torchfrom torch.autograd import Variable# 1、简单的求导(求导对象是标量)x = Variable(torch.Tensor([2]),requires_grad=True)y = (x + 2) ** 2 +... 阅读全文
摘要:
Tensor是Pytorch的一个完美组件(可以生成高维数组),但是要构建神经网络还是远远不够的,我们需要能够计算图的Tensor,那就是Variable。Variable是对Tensor的一个封装,操作和Tensor是一样的,但是每个Variable都有三个属性,Varibale的Tensor本身的.data,对应Tensor的梯度.grad,以及这个Variable是通过什么方式得到的.gra... 阅读全文
摘要:
梯度下降代码:function [ theta, J_history ] = GradinentDecent( X, y, theta, alpha, num_iter )m = length(y);J_history = zeros(20, 1);i = 0;temp = 0;for iter = 1:num_iter temp = temp +1; theta = theta ... 阅读全文
摘要:
#条件判断#布尔变量条件判断方法not True # Falsenot False #TrueTrue and False #FalseTrue or False #TrueTrue == False #FalseTrue != False #TrueTrue > False #TrueTrue >= False #TrueTrue >= = 18: print('your age is... 阅读全文
摘要:
#tensor和numpyimport torchimport numpy as npnumpy_tensor = np.random.randn(3,4)print(numpy_tensor)#将numpy的ndarray转换到tendor上pytorch_tensor1 = torch.Tensor(numpy_tensor)pytorch_tensor2 = torch.from_numpy... 阅读全文
摘要:
参考链接:https://zhuanlan.zhihu.com/p/36435504 阅读全文
摘要:
一、软阈值算法及推导:二、近端投影与近端梯度下降以上推导是结合很多大佬博客整理的,如有侵权,请及时联系,将对其进行修改。 阅读全文
摘要:
L1和L2在不同领域的不同叫法机器学习领域:正则化项统计学领域:惩罚项数学领域:范数Lasso和Ridge回归在Lasso回归中正则化项是用的L1,L1是绝对值距离也叫做哈曼顿距离。Lasso回归可以压缩一些系数,把一些系数变为0,是一种处理具有复共线性数据的有偏估计。在Ridge回归中正则化项是用的L2,L2是平方距离也叫做欧式距离。是一种专门应用于共线性数据的回归方法。对于L1和L2都有一个公... 阅读全文
摘要:
#第一个程序print('SigAi')#python 输入程序name = input('please enter a name')print(name)#list 是可变有序集合#list之可变L = list(['a','b','c'])print(L)L.append('def')print(L)a = L.pop() #从列表的最后一个位置删除元素,并将那个元素返回来print(L)pr... 阅读全文