02 2020 档案

摘要:1. LeNet class LeNet(nn.Module): def __init__(self): super(LeNet, self).__init__() # 1, 32, 32 layer1 = nn.Sequential() layer1.add_module('conv1', nn. 阅读全文
posted @ 2020-02-28 16:32 Picassooo 阅读(1986) 评论(0) 推荐(0) 编辑
摘要:1. 牛顿法求方程的根 假设我们需求f(x)=0的根,并假设f(x)=0可导。首先,把f(x)x0进行一阶泰勒展开: 由f(x)=0可得: 因此迭代公式为: 2. 牛顿法求极小值 6. 牛顿法和梯度下降法的比较 这里我们用一个简单的例子比较牛顿法和梯度下降法的收敛效果:求$f 阅读全文
posted @ 2020-02-25 00:13 Picassooo 阅读(1262) 评论(0) 推荐(0) 编辑
摘要:【梯度下降法】一:快速教程、Python简易实现以及对学习率的探讨 【梯度下降法】二:冲量(momentum)的原理与Python实现 【梯度下降法】三:学习率衰减因子(decay)的原理与Python实现 阅读全文
posted @ 2020-02-23 09:57 Picassooo 阅读(398) 评论(0) 推荐(0) 编辑
摘要:从一批次所用数据量的角度可以分为:全量梯度下降(batch GD),小批量梯度下降(mini-batch GD),随机梯度下降(SGD,一次只用一个样本计算梯度并更新参数)。batch GD, mini-batch GD, SGD都可以看成SGD的范畴, 只不过区别在于每次取多少的样本了。 从梯度的 阅读全文
posted @ 2020-02-22 23:12 Picassooo 阅读(2709) 评论(0) 推荐(0) 编辑
摘要:torch.linspace torch.linspace(start, end, steps) returns a one-dimensional tensor of equally spaced points between [start, end]。steps默认值是100。 torch.ra 阅读全文
posted @ 2020-02-22 12:57 Picassooo 阅读(446) 评论(0) 推荐(0) 编辑
摘要:本文摘自微信公众号半佛仙人。 把整个影视行业划分开,大概有四个部分:投资方、制作方、发行方、院线。 投资方很简单,掏钱的,金主爸爸,有钱就是爷,酷爱空降个小三戏里圆梦,扯小鲜肉晚上陪酒,并不奇怪。。 片方就是我们经常听到的那些职位:导演、编剧、演员、摄像、灯光、场务场记什么什么的,他们的目的是把电影 阅读全文
posted @ 2020-02-11 11:52 Picassooo 阅读(2314) 评论(0) 推荐(0) 编辑
摘要:二进制文件和文本文件的区别详解 阅读全文
posted @ 2020-02-05 22:02 Picassooo 阅读(239) 评论(0) 推荐(0) 编辑
摘要:sorted是python的自带函数。 sorted(iterable,key,reverse),sorted一共有iterable,key,reverse这三个参数,其中key,reverse参数是可给可不给的。 其中iterable表示可以迭代的对象,例如可以是 dict.items()、dic 阅读全文
posted @ 2020-02-03 15:48 Picassooo 阅读(593) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示