会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
雪饮者
运伟大之思者,必行伟大之迷途
博客园
首页
新随笔
联系
订阅
管理
2018年7月31日
柏拉图
该文被密码保护。
阅读全文
posted @ 2018-07-31 23:56 雪饮者
阅读(0)
评论(0)
推荐(0)
编辑
2018年7月30日
苏格拉底
该文被密码保护。
阅读全文
posted @ 2018-07-30 22:54 雪饮者
阅读(1)
评论(0)
推荐(0)
编辑
2018年3月18日
拟牛顿法
摘要: 后面推导的拟牛顿法是在阻尼牛顿法的基础上推导而来,下面简单介绍阻尼牛顿法
阅读全文
posted @ 2018-03-18 12:02 雪饮者
阅读(437)
评论(0)
推荐(0)
编辑
2018年3月11日
优化算法-牛顿法
摘要: 牛顿法(英语:Newton's method)又称为牛顿-拉弗森方法(英语:Newton-Raphson method),它是一种在实数域和复数域上近似求解方程的方法。方法使用函数f(x)的泰勒级数的前面几项来寻找方程f(x)=0的根。 一般情况对于f(x)是一元二次的情况直接应用求根公式就可以了,
阅读全文
posted @ 2018-03-11 15:23 雪饮者
阅读(2164)
评论(0)
推荐(0)
编辑
2017年10月8日
word2vec 的理解
摘要: 1.CBOW 模型 CBOW模型包括输入层、投影层、输出层。模型是根据上下文来预测当前词,由输入层到投影层的示意图如下: 这里是对输入层的4个上下文词向量求和得到的当前词向量,实际应用中,上下文窗口大小可以设置。 输出层是一颗哈夫曼树,从向量W(t)到哈夫曼树的转化过程是这样的:以训练语料中出现的词
阅读全文
posted @ 2017-10-08 21:53 雪饮者
阅读(261)
评论(0)
推荐(0)
编辑
2017年10月1日
P问题、NP问题和NPC问题
摘要: 这或许是众多OIer最大的误区之一。 你会经常看到网上出现“这怎么做,这不是NP问题吗”、“这个只有搜了,这已经被证明是NP问题了”之类的话。你要知道,大多数人此时所说的NP问题其实都是指的NPC问题。他们没有搞清楚NP问题和NPC问题的概念。NP问题并不是那种“只有搜才行”的问题,NPC问题才是。
阅读全文
posted @ 2017-10-01 13:00 雪饮者
阅读(247)
评论(0)
推荐(0)
编辑
2017年9月24日
逻辑斯蒂回归(Logistic Regression)
摘要: 逻辑回归名字比较古怪,看上去是回归,却是一个简单的二分类模型。 逻辑回归的模型是如下形式: 其中x是features,θ是feature的权重,σ是sigmoid函数。将θ0视为θ0*x0(x0取值为常量1),那么 这里我们取阈值为0.5,那么二分类的判别公式为: 下面说一下参数θ的求解: 为啥子这
阅读全文
posted @ 2017-09-24 22:22 雪饮者
阅读(622)
评论(0)
推荐(0)
编辑
2017年9月10日
强化学习
摘要: 引用自知乎,原文链接 https://www.zhihu.com/question/41775291
阅读全文
posted @ 2017-09-10 19:43 雪饮者
阅读(157)
评论(0)
推荐(0)
编辑
2017年8月27日
RNN总结
摘要: RNN既可以表述为循环神 经网络(recurrent neural network),也可以表述为递归神经网络(recursive neural network),前者一般用于处理以时间序列为输入的问题(比如把一个句子看成词组成的序列),每次向循环神经网络输入一个词,知道整个句子输入结束。后者一般用
阅读全文
posted @ 2017-08-27 21:45 雪饮者
阅读(504)
评论(0)
推荐(0)
编辑
2017年8月20日
卷积神经网络(CNN)
摘要: 最近可能会用到CNN,今天回顾一下,并找到了一些大神的精华帖,顺便做个总结。 CNN是时下非常火的一种深度学习算法,它是一种前馈神经网络,即神经元只与前后层有联系,在同一层的神经元无联系。笔者用下面这张图用来说明卷积神经网络的工作原理 这是一个识别字母的CNN结构图,最左边是32*32像素的输入,然
阅读全文
posted @ 2017-08-20 15:56 雪饮者
阅读(605)
评论(0)
推荐(0)
编辑
下一页
公告