// Fork me on GitHub
上一页 1 ··· 5 6 7 8 9
摘要: 编程分为两类:系统编程(system programming)和应用编程(application programming)。所谓系统编程,简单来说,就是编写库;而应用编程就是利用写好的各种库来编写具某种功用的程序,也就是应用。系统程序员会给自己写的库留下一些接口,即API(application p 阅读全文
posted @ 2020-09-14 09:12 繁星春水 阅读(144) 评论(0) 推荐(0) 编辑
摘要: 闭包函数 闭包函数:定义在函数内部的函数,并且该函数包含对外部函数作用域中名字的引用,该函数就称为闭包函数。 注意:该函数的作用域在定义阶段就定义死了,与调用位置无关 闭包函数是 函数嵌套、函数对象、名称空间与作用域 结合体。 函数作用域: build_in :系统固定模块里的变量 global:全 阅读全文
posted @ 2020-09-13 23:48 繁星春水 阅读(183) 评论(0) 推荐(0) 编辑
摘要: 重点分清楚对象是由A类实例化的,A类是由B类实例化的, 调用B类的__call__(self,*args,**kwargs),self=A __call__()函数中执行 A_obj=self.__new__(self), self.__init__(A_obj,*args,**kwargs) re 阅读全文
posted @ 2020-09-13 23:00 繁星春水 阅读(202) 评论(0) 推荐(0) 编辑
摘要: x=torch.tensor([[1,2,3], [4,5,6]]) torch.gather(dim=0,index=torch.tensor([0,0,1],[1,0,1])) 表示提取索引元素,索引由index提供的信息生成)(索引!=index) dim=0,index里的元素表示 索引的第 阅读全文
posted @ 2020-08-26 09:47 繁星春水 阅读(115) 评论(0) 推荐(0) 编辑
摘要: [NL系列] RNN & LSTM 网络结构及应用 http://www.jianshu.com/p/f3bde26febed/ 这篇是 The Unreasonable Effectiveness of Recurrent Neural Networks(by Andrej Karpathy,St 阅读全文
posted @ 2020-08-17 18:36 繁星春水 阅读(4361) 评论(0) 推荐(0) 编辑
摘要: 这里num_layers是同一个time_step的结构堆叠,Lstm堆叠层数与time step无关。Time step表示的是时间序列长度,它是由数据的inputsize决定,你输的数据时序有多长,那么神经网络会自动确定,时间序列长度只需要与你输入的数据时序长度保持一致即可。 lstm=nn.L 阅读全文
posted @ 2020-08-14 10:36 繁星春水 阅读(6668) 评论(0) 推荐(0) 编辑
摘要: since2020/6/10 阅读全文
posted @ 2020-06-10 22:16 繁星春水 阅读(128) 评论(0) 推荐(0) 编辑
上一页 1 ··· 5 6 7 8 9
1 //2 3
//4