摘要: https://www.cnblogs.com/zhaopAC/p/10240968.html 基于梯度的神经网络(eg back propagation)的梯度消失 This is not a fundamental problem with neural networks - it's a pr 阅读全文
posted @ 2019-09-20 16:58 SENTIMENT_SONNE 阅读(1028) 评论(0) 推荐(0) 编辑
摘要: 李宏毅的深度学习课程。 RNN一个应用是填槽,slot filling是需要存储记忆的。 为什么要使用RNN 前馈神经网络 常见的前馈神经网络有单层前馈神经网络、多层前馈神经网络(DNN、多层感知器)、CNN(点名CNN这个垃圾)等。 前馈神经网络的缺陷 前馈神经网络前一个输入与后一个输入之间没有任 阅读全文
posted @ 2019-09-20 13:27 SENTIMENT_SONNE 阅读(702) 评论(0) 推荐(0) 编辑
摘要: 《SESSION-BASED RECOMMENDATIONS WITH RECURRENT NEURAL NETWORKS》 http://arxiv.org/abs/1511.06939 GRU是什么 在LSTM中引入了三个门函数:输入门、遗忘门和输出门 。GRU模型中只有两个门:更新门和重置门。 阅读全文
posted @ 2019-09-19 16:01 SENTIMENT_SONNE 阅读(627) 评论(0) 推荐(0) 编辑
摘要: CNN其实就是把一些neuron拿走。为什么?3个property。 property 1 a neuron does not have to see the whole image to discover the pattern. 比如一张鸟的图片,第一layer是去侦测有没有鸟嘴存在(beak 阅读全文
posted @ 2019-09-02 17:26 SENTIMENT_SONNE 阅读(319) 评论(0) 推荐(0) 编辑
摘要: 把超过某一个数的拿出来collect 阅读全文
posted @ 2019-08-31 23:34 SENTIMENT_SONNE 阅读(942) 评论(0) 推荐(0) 编辑
摘要: join是根据key做两张表全连接 阅读全文
posted @ 2019-08-31 23:32 SENTIMENT_SONNE 阅读(198) 评论(0) 推荐(0) 编辑
摘要: class GFG(Lname: String, Tname: String, article: Int) { def show() { println("Language name: " + Lname); println("Topic name: " + Tname); println("Tot 阅读全文
posted @ 2019-08-24 19:11 SENTIMENT_SONNE 阅读(132) 评论(0) 推荐(0) 编辑
摘要: creates Map val weights = Map("cat" -> 10, "elephant" -> 200000) val weight = weights("elephant") println(weight) val colors = Map(("bird", "blue"), ( 阅读全文
posted @ 2019-08-24 19:03 SENTIMENT_SONNE 阅读(245) 评论(0) 推荐(0) 编辑
摘要: 背景/来源/参考: 来自知乎王喆机器学习笔记《回顾Facebook经典CTR预估模型》,和推荐系统的局部更新(相反于全量更新)有关,《如何增强推荐系统模型更新的「实时性」?》 Facebook在2014发表的“Practical Lessons from Predicting Clicks on A 阅读全文
posted @ 2019-08-22 15:07 SENTIMENT_SONNE 阅读(649) 评论(0) 推荐(0) 编辑
摘要: //省略sc val arr = List(("A",1),("B",2),("A",2),("B",3)) val rdd = sc.parallelize(arr) val sortByKeyRDD = rdd.sortByKey() sortByKeyRDD.foreach(println) sc.stop # (A,1) # (A,2) # (B,2) # (B,3) #... 阅读全文
posted @ 2019-08-11 13:18 SENTIMENT_SONNE 阅读(188) 评论(0) 推荐(0) 编辑