联合会员
周边
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
雪饮者
运伟大之思者,必行伟大之迷途
博客园
首页
新随笔
联系
订阅
管理
2018年7月31日
柏拉图
该文被密码保护。
阅读全文
posted @ 2018-07-31 23:56 雪饮者
阅读(0)
评论(0)
推荐(0)
编辑
2018年7月30日
苏格拉底
该文被密码保护。
阅读全文
posted @ 2018-07-30 22:54 雪饮者
阅读(1)
评论(0)
推荐(0)
编辑
2018年3月18日
拟牛顿法
摘要: 后面推导的拟牛顿法是在阻尼牛顿法的基础上推导而来,下面简单介绍阻尼牛顿法
阅读全文
posted @ 2018-03-18 12:02 雪饮者
阅读(443)
评论(0)
推荐(0)
编辑
2018年3月11日
优化算法-牛顿法
摘要: 牛顿法(英语:Newton's method)又称为牛顿-拉弗森方法(英语:Newton-Raphson method),它是一种在实数域和复数域上近似求解方程的方法。方法使用函数f(x)的泰勒级数的前面几项来寻找方程f(x)=0的根。 一般情况对于f(x)是一元二次的情况直接应用求根公式就可以了,
阅读全文
posted @ 2018-03-11 15:23 雪饮者
阅读(2194)
评论(0)
推荐(0)
编辑
2017年10月8日
word2vec 的理解
摘要: 1.CBOW 模型 CBOW模型包括输入层、投影层、输出层。模型是根据上下文来预测当前词,由输入层到投影层的示意图如下: 这里是对输入层的4个上下文词向量求和得到的当前词向量,实际应用中,上下文窗口大小可以设置。 输出层是一颗哈夫曼树,从向量W(t)到哈夫曼树的转化过程是这样的:以训练语料中出现的词
阅读全文
posted @ 2017-10-08 21:53 雪饮者
阅读(266)
评论(0)
推荐(0)
编辑
2017年10月1日
P问题、NP问题和NPC问题
摘要: 这或许是众多OIer最大的误区之一。 你会经常看到网上出现“这怎么做,这不是NP问题吗”、“这个只有搜了,这已经被证明是NP问题了”之类的话。你要知道,大多数人此时所说的NP问题其实都是指的NPC问题。他们没有搞清楚NP问题和NPC问题的概念。NP问题并不是那种“只有搜才行”的问题,NPC问题才是。
阅读全文
posted @ 2017-10-01 13:00 雪饮者
阅读(251)
评论(0)
推荐(0)
编辑
2017年9月24日
逻辑斯蒂回归(Logistic Regression)
摘要: 逻辑回归名字比较古怪,看上去是回归,却是一个简单的二分类模型。 逻辑回归的模型是如下形式: 其中x是features,θ是feature的权重,σ是sigmoid函数。将θ0视为θ0*x0(x0取值为常量1),那么 这里我们取阈值为0.5,那么二分类的判别公式为: 下面说一下参数θ的求解: 为啥子这
阅读全文
posted @ 2017-09-24 22:22 雪饮者
阅读(638)
评论(0)
推荐(0)
编辑
2017年9月10日
强化学习
摘要: 引用自知乎,原文链接 https://www.zhihu.com/question/41775291
阅读全文
posted @ 2017-09-10 19:43 雪饮者
阅读(158)
评论(0)
推荐(0)
编辑
2017年8月27日
RNN总结
摘要: RNN既可以表述为循环神 经网络(recurrent neural network),也可以表述为递归神经网络(recursive neural network),前者一般用于处理以时间序列为输入的问题(比如把一个句子看成词组成的序列),每次向循环神经网络输入一个词,知道整个句子输入结束。后者一般用
阅读全文
posted @ 2017-08-27 21:45 雪饮者
阅读(506)
评论(0)
推荐(0)
编辑
2017年8月20日
卷积神经网络(CNN)
摘要: 最近可能会用到CNN,今天回顾一下,并找到了一些大神的精华帖,顺便做个总结。 CNN是时下非常火的一种深度学习算法,它是一种前馈神经网络,即神经元只与前后层有联系,在同一层的神经元无联系。笔者用下面这张图用来说明卷积神经网络的工作原理 这是一个识别字母的CNN结构图,最左边是32*32像素的输入,然
阅读全文
posted @ 2017-08-20 15:56 雪饮者
阅读(611)
评论(0)
推荐(0)
编辑
下一页
公告
点击右上角即可分享