上一页 1 2 3 4 5 6 7 8 9 ··· 13 下一页
摘要: An introduction to Generative Adversarial Networks (with code in TensorFlow) 成对抗网络初学入门:一文读懂GAN的基本原理 阅读全文
posted @ 2018-09-14 16:57 hugh.wei 阅读(409) 评论(0) 推荐(0) 编辑
摘要: 关于学生的学习方法问题,每个人的认识不尽一样,是教育界长期以来有争论的一个问题。我讲的是自己的一些经验,以及我所熟悉的一些人的经验。 一、不要死记硬背。孔夫子说过一句很有名的话:“学而不思则罔”。指学习的时候要思考相关的问题,不边学习边思索,会什么也学不到。这是一句很有名的话,可是常常被很多人忘了。 阅读全文
posted @ 2018-07-26 09:17 hugh.wei 阅读(1557) 评论(0) 推荐(0) 编辑
摘要: 年逾九旬的上海大学校长、中科院院士钱伟长,称得上是一个传奇式的老人。早在上世纪60年代,他就与钱学森、钱三强一起被***总理称为我国科学家中成就卓越的“三钱”;他也是我国目前在位的最年长的大学校长。 钱伟长从念大学起,几十年如一日,坚持体育锻炼。如今的钱老对日常的锻炼依然锲而不舍。他说:“不能吃身体 阅读全文
posted @ 2018-07-26 09:16 hugh.wei 阅读(305) 评论(0) 推荐(0) 编辑
摘要: 这两篇文章讲的比较深入 GBDT 入门教程之原理、所解决的问题、应用场景讲解 机器学习(23)之GBDT详解 阅读全文
posted @ 2018-03-09 23:49 hugh.wei 阅读(209) 评论(0) 推荐(0) 编辑
摘要: word2vec 中的数学原理详解 1)为什么使用对数似然函数作为损失函数?(解释:“对数损失函数”与“极大似然估计下的对数似然函数”在本质上是等价的) 2) 自然语言处理中最重要的一个技术就是统计语言模型; 统计语言模型是用来确定一个句子的概率的概率模型,常用的包括:n-gram 模型和神经网络; 阅读全文
posted @ 2018-01-18 12:46 hugh.wei 阅读(2095) 评论(0) 推荐(0) 编辑
摘要: 原理分析 http://www.jianshu.com/p/9dc9f41f0b29/ 代码实现 https://github.com/nicodjimenez/lstm 阅读全文
posted @ 2017-10-11 12:13 hugh.wei 阅读(144) 评论(0) 推荐(0) 编辑
摘要: 这篇将拉格朗日函数比较全面,其中明确给出了拉格朗日函数,拉格朗日乘子的定义 深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件 阅读全文
posted @ 2017-10-11 08:35 hugh.wei 阅读(167) 评论(0) 推荐(0) 编辑
摘要: 1)一直想解决如果在tensorflow中按照需求组装向量,于是发现了这个函数 tf.nn.embedding_lookup(params, ids, partition_strategy=’mod’, name=None, validate_indices=True, max_norm=None) 阅读全文
posted @ 2017-06-08 21:24 hugh.wei 阅读(838) 评论(0) 推荐(0) 编辑
摘要: 好久没写博客,就如好久没找到自己了 ———————————————————— PFMC,性能惊人的好,如果说BPR在Precision达到9%,那么PFMC达到了12%。 至于PFMC,那只不过是在训练时采用了特殊的采样方法。 阅读全文
posted @ 2017-06-07 21:09 hugh.wei 阅读(222) 评论(0) 推荐(0) 编辑
摘要: /* 版权声明:可以任意转载,转载时请标明文章原始出处和作者信息 .*/ author: 张俊林 要是关注深度学习在自然语言处理方面的研究进展,我相信你一定听说过Attention Model(后文有时会简称AM模型)这个词。AM模型应该说是过去一年来NLP领域中的重要进展之一,在很多场景被证明有效 阅读全文
posted @ 2017-05-05 12:35 hugh.wei 阅读(426) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 13 下一页