上一页 1 2 3 4 5 6 7 8 9 10 ··· 13 下一页
摘要: ——1932年时任北京大学校长的胡适在北大毕业典礼上的演讲你们现在要离开母校了,我没有什么礼物送给你们,只好送你们一句话吧。这一句话是:“不要抛弃学问。”以前的功课也许有一大部分是为了这张毕业文凭,不得已而做的。从今以后,你们可以依自己的心愿去自由研究了。趁现在年富力强的时候,努力去做一种专门学问。 阅读全文
posted @ 2017-04-20 17:21 hugh.wei 阅读(884) 评论(0) 推荐(0) 编辑
摘要: 01.哥们儿,麻烦让下,你挡着我手机信号了。02.我要让全世界都知道我很低调。03.哎呦,您这么忙还亲自上厕所啊?04.你的愚蠢总是那么富有创造力。05.来到这世上,我就没打算活着回去!06.孩子,人傻不能复生啊!07.自从得了神经病,整个人都精神多了。08.不能因为我俩有过节,你就把我当节过。09 阅读全文
posted @ 2017-04-20 17:11 hugh.wei 阅读(107) 评论(0) 推荐(0) 编辑
摘要: ppt计划 1)制作完成 2)知识点补充完整 3)讲的自然,迭代修改ppt 讲后: 1)总要的思路 2)思路 3)思路 阅读全文
posted @ 2017-03-29 14:10 hugh.wei 阅读(110) 评论(0) 推荐(0) 编辑
摘要: 受限玻尔兹曼机(RBM)学习笔记 1)这篇文章中有一部分把MCMC采样法讲的比较形象。 2)RBM,个人感觉是一种通过神经网络来表示概率图模型的方法,或者说通过神经网络来表示观察到的样本发生概率的方法。而与神经网络的主要不同之处在于使用了能量函数作为目标函数。 阅读全文
posted @ 2017-03-26 16:58 hugh.wei 阅读(207) 评论(0) 推荐(0) 编辑
摘要: 读后感: 时间不多,略扫一遍。 亮点在于1)问题从POI角度出发来预测用户(但实际是换汤不换药)。 2)方法使用word2vec,但这种思想其实在以前的Metric Embeding已经体现过;至于融入地理信息,感觉其方法过于繁琐。 3)提出的假设与WWO中的基本相同,rate=序列概率*兴趣概率。 阅读全文
posted @ 2017-03-22 21:09 hugh.wei 阅读(737) 评论(0) 推荐(0) 编辑
摘要: 问题原因: 阅读全文
posted @ 2016-11-06 12:52 hugh.wei 阅读(281) 评论(0) 推荐(0) 编辑
摘要: 矩阵、向量求导法则 分分钟推导神经网络 CS231n课程笔记翻译:反向传播笔记 阅读全文
posted @ 2016-08-24 19:35 hugh.wei 阅读(122) 评论(0) 推荐(0) 编辑
摘要: 忙来忙去,总是感觉有做不完的事 就如同今天下午,为了把一个java程序打包成jar,按照网上教程的步骤做了,可以始终报错,缺少manifest主清单属性。 抱着试一试,调一调的心态,修改下这个或者那个参数,重复n次,希望能有一次奇迹般的成功 但是正如预期一样,无一成功 阅读全文
posted @ 2016-08-06 16:35 hugh.wei 阅读(89) 评论(0) 推荐(0) 编辑
摘要: 矩阵的范数求导 阅读全文
posted @ 2016-08-03 14:17 hugh.wei 阅读(305) 评论(0) 推荐(0) 编辑
摘要: 1)引自http://www.crazyant.net/1470.html 测试数据为: hive left join测试数据 测试1:left join 语句: select * from table1 left outer join table2 on(table1.student_no=tab 阅读全文
posted @ 2016-07-05 09:40 hugh.wei 阅读(192) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 13 下一页