摘要: 词向量:编码词汇级别的信息 url:http://pytorch.org/tutorials/beginner/nlp/word_embeddings_tutorial.html?highlight=lookup 词嵌入 词嵌入是稠密向量,每个都代表了一个单词表里面的一个单词。NLP中每个Featu 阅读全文
posted @ 2017-11-30 18:24 Aaronsw 阅读(659) 评论(0) 推荐(0) 编辑
摘要: 思路分析:从尾到头,凡是遇到这种逆序问题,可以先考虑用栈,因为栈是先进后出;也可以考虑使用题归,不过递归确实比较灵活,不好掌握。还有一个比较直观的思路就是先把链表反转,然后再从头到尾打印。 代码:使用栈 代码主要还是借鉴别人的,主要还是肚子里没有墨水,经过训练就没有问题。其实思路相当简单,就是能不能 阅读全文
posted @ 2017-08-31 02:16 Aaronsw 阅读(158) 评论(0) 推荐(0) 编辑
摘要: 参考:http://ufldl.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92 阅读全文
posted @ 2017-08-23 15:02 Aaronsw 阅读(159) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-08-22 21:34 Aaronsw 阅读(121) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-08-22 17:55 Aaronsw 阅读(568) 评论(0) 推荐(0) 编辑
摘要: 由于编辑器总是崩溃,我只能直接把代码贴上了。 阅读全文
posted @ 2017-08-14 10:52 Aaronsw 阅读(552) 评论(0) 推荐(0) 编辑
摘要: 今天应该是把朴素贝叶斯算法层面上的东西全部理解了,朴素贝叶斯总的来说是比较简单的机器学习模型,是生成模型,而不是判别模型,是在假定y的条件下看x的生成情况。朴素贝叶斯两个朴素的但不一定正确的假设,条件概率,到贝叶斯公式,再推广到朴素贝叶斯的公式,利用朴素的假设简化模型,类别的参数估计总是用MLE或者 阅读全文
posted @ 2017-07-17 22:43 Aaronsw 阅读(245) 评论(0) 推荐(0) 编辑
摘要: 看了两天的贝叶斯理论,终于算是理解一些,现在写下来自己的收获。 1.贝叶斯公式 $P(A|B)=P(A) \frac {P(B|A)}{P(B}$,我认为,这样的形式才能帮助我们更好的取理解贝叶斯公式,而不是将贝叶斯公式看作是由条件概率推导而来的公式。 公式的理解:(1)$P(A)$就是所谓的先验概 阅读全文
posted @ 2017-06-25 22:15 Aaronsw 阅读(569) 评论(1) 推荐(0) 编辑
摘要: 1.什么是似然函数 一句话概括:似然函数是参数的函数。 公式:解释:参数$\theta$在给定输出为x的情况下的似然函数等于,在给定参数为$\theta$的情况下,取x的概率。注意:此处的竖杠并不表示条件件概率,仅仅是一种取该值的含义。 我的理解:在统计学中,随机变量会服从某个分布,此分布带有参数。 阅读全文
posted @ 2017-06-25 21:01 Aaronsw 阅读(9228) 评论(0) 推荐(0) 编辑