摘要:
词向量:编码词汇级别的信息 url:http://pytorch.org/tutorials/beginner/nlp/word_embeddings_tutorial.html?highlight=lookup 词嵌入 词嵌入是稠密向量,每个都代表了一个单词表里面的一个单词。NLP中每个Featu 阅读全文
摘要:
思路分析:从尾到头,凡是遇到这种逆序问题,可以先考虑用栈,因为栈是先进后出;也可以考虑使用题归,不过递归确实比较灵活,不好掌握。还有一个比较直观的思路就是先把链表反转,然后再从头到尾打印。 代码:使用栈 代码主要还是借鉴别人的,主要还是肚子里没有墨水,经过训练就没有问题。其实思路相当简单,就是能不能 阅读全文
摘要:
参考:http://ufldl.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92 阅读全文
摘要:
由于编辑器总是崩溃,我只能直接把代码贴上了。 阅读全文
摘要:
今天应该是把朴素贝叶斯算法层面上的东西全部理解了,朴素贝叶斯总的来说是比较简单的机器学习模型,是生成模型,而不是判别模型,是在假定y的条件下看x的生成情况。朴素贝叶斯两个朴素的但不一定正确的假设,条件概率,到贝叶斯公式,再推广到朴素贝叶斯的公式,利用朴素的假设简化模型,类别的参数估计总是用MLE或者 阅读全文
摘要:
看了两天的贝叶斯理论,终于算是理解一些,现在写下来自己的收获。 1.贝叶斯公式 $P(A|B)=P(A) \frac {P(B|A)}{P(B}$,我认为,这样的形式才能帮助我们更好的取理解贝叶斯公式,而不是将贝叶斯公式看作是由条件概率推导而来的公式。 公式的理解:(1)$P(A)$就是所谓的先验概 阅读全文
摘要:
1.什么是似然函数 一句话概括:似然函数是参数的函数。 公式:解释:参数$\theta$在给定输出为x的情况下的似然函数等于,在给定参数为$\theta$的情况下,取x的概率。注意:此处的竖杠并不表示条件件概率,仅仅是一种取该值的含义。 我的理解:在统计学中,随机变量会服从某个分布,此分布带有参数。 阅读全文