摘要:
找回了扔了几个月的博客,发下唯一的变化是研一已经快结束了。 这几个月,能力没长进,知识没学到,纯纯的浪费生命,搁着养蛊呢.... 【1】买的书没看完 【2】炒币破产QAQ~ 【3】经历过一段与维族学妹特殊的恋情,发现不可能走到最后。但是觉得不能欺负老实人,果断分手。 【4】健身刚入门,每天看肌肉 【 阅读全文
摘要:
CLASS torchtext.data.Field(sequential=True, use_vocab=True, init_token=None, eos_token=None, fix_length=None, dtype=torch.int64, preprocessing=None, p 阅读全文
摘要:
前文已经详细介绍了LeNet的原理https://www.cnblogs.com/justkeen/p/15874085.html,本章主要使用Pytorch来对LeNet进行实现,并查看其运行的结果。 1 #将输入X变成批量数不变,通道数为1,大小为28*28的X 2 class Reshape( 阅读全文
摘要:
LeNet的实现原理的详细介绍 阅读全文
摘要:
从本篇开始,我开辟一块关于mxnet学习的新的版块。 多层感知机前面的内容过于基础,不再赘述。 (一)多层感知机使用mxnet中的Gluon(轮子) 两层的感知机,包含一个hidden layer: from mxnet import gluon net = gluon.nn.Sequential( 阅读全文
摘要:
笔者在做随机过程作业的时候遇见了一道题泊松过程的题目,凭借直觉填写答案后总觉得逻辑上理不太顺。但是一直也没想具体的原因(实在是懒啊~摸鱼不好吗), 今天上团课时候突然想起来,这里记录一下。 题目为如下的37题(来自龚光鲁11版习题),还算清晰,不再抄题了。 这里求解的是两次替换之间的平均时间 = E 阅读全文
摘要:
#3.2线性回归从零开始import torchimport numpy as npimport randomnum_inputs = 2num_examples = 1000true_w = [2,-3.4]true_b = 4.2features = torch.randn(num_exampl 阅读全文
摘要:
#2.3自动求解梯度pytorch提供的是autograd包能够# 根据输入和前向传播过程自动构建计算图#并且执行反向传播#2.3.1概念#如果将Tensor中的 .requires_grad设置成为Ture,他就会开始追踪#在其上的所有操作(这样就可以利用链式法则进行梯度传播了)#完成计算后,可以 阅读全文
摘要:
1 #后期有时间我会逐行注释代码 from numpy import * 2 import operator 3 4 5 def creatDataSet(): 6 group = array([[1.0,1.1], 7 [1.0,1.0], 8 [0,0], 9 [0,0.1]]) 10 labe 阅读全文
摘要:
在matlab中图像f如果是double类型的,那么显示图片 使用imshow( f )与imshow(f,[ ])是有着明显区别的。 以lena图像为例: 1 >> f = imread('C:\Users\AAA\Pictures\matlab\lena.bmp'); 2 >> f = doub 阅读全文