会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
打赏
禅在心中
东风夜放花千树,更吹落、星如雨。宝马雕车香满路。凤箫声动,玉壶光转,一夜鱼龙舞。 蛾儿雪柳黄金缕,笑语盈盈暗香去。众里寻他千百度,蓦然回首,那人却在,灯火阑珊处。
博客园
首页
新随笔
新文章
联系
订阅
管理
上一页
1
2
3
4
5
6
7
下一页
2018年6月9日
python中关于if-else使用性能的一点感悟
摘要: 今天做leetcode第7题关于数字倒序的问题,分别使用如下程序:(72ms) 而使用方法2:(112ms) 在做一下改进:(76ms) 对比三种方法,可以看到,其实简简单单的一个if else,也有需要我们仔细考虑的: 第2种方法用时大,是因为用例大多数都是else中的内容,这样的话,大部分用例都
阅读全文
posted @ 2018-06-09 16:33 禅在心中
阅读(7018)
评论(0)
推荐(1)
编辑
2018年5月26日
seq2seq模型以及其tensorflow的简化代码实现
摘要: 本文内容: 什么是seq2seq模型 Encoder-Decoder结构 常用的四种结构 带attention的seq2seq 模型的输出 seq2seq简单序列生成实现代码 一、什么是seq2seq模型 seq2seq全称为:sequence to sequence ,是2014年被提出来的一种E
阅读全文
posted @ 2018-05-26 12:43 禅在心中
阅读(5425)
评论(0)
推荐(1)
编辑
2018年5月17日
MOXA的Nport5600初始密码
摘要: 今天第一次弄Nport,看了半天手册没找到初始密码,网上也搜不到,按照说明书上想打电话问问,发现根本是空号。。。 后来灵感一来试了一下,居然是:moxa
阅读全文
posted @ 2018-05-17 22:06 禅在心中
阅读(16862)
评论(0)
推荐(0)
编辑
2018年4月29日
预测功率和电流之间的关系
摘要: 通常机器学习的开发流程包括:数据收集 数据清洗与转换 模型训练 模型测试 模型部署与整合 下面,通过一个例子进行完整的机器学习开发流程的学习。 工程中需要的库: (1)首先数据的收集,获取数据: 如上,可以看到,我们获得需要获取的是Global_active_power(有功功率)、Global_r
阅读全文
posted @ 2018-04-29 14:19 禅在心中
阅读(980)
评论(0)
推荐(0)
编辑
2018年4月8日
KNN与SVM对比&SVM与逻辑回归的对比
摘要: 首先说一下两种学习方式: lazy learning 和 eager learning。 先说 eager learning, 这种学习方式是指在进行某种判断(例如,确定一个点的分类或者回归中确定某个点对应的函数值)之前,先利用训练数据进行训练得到一个目标函数,待需要时就只利用训练好的函数进行决策,
阅读全文
posted @ 2018-04-08 21:45 禅在心中
阅读(6593)
评论(0)
推荐(1)
编辑
2018年4月6日
拉格朗日乘子法以及KKT条件
摘要: 拉格朗日乘子法是一种优化算法,主要用来解决约束优化问题。他的主要思想是通过引入拉格朗日乘子来将含有n个变量和k个约束条件的约束优化问题转化为含有n+k个变量的无约束优化问题。 其中,利用拉格朗日乘子法主要解决的问题为: 等式的约束条件和不等式的条件约束。 拉格朗日乘子的背后的数学意义是其为约束方程梯
阅读全文
posted @ 2018-04-06 19:40 禅在心中
阅读(3510)
评论(0)
推荐(0)
编辑
2018年4月5日
复合熵、条件熵和信息增益
摘要: 复合熵: 条件熵: 复合熵和条件熵之间的关系: 这个公式把复合熵、条件熵以及熵联系到一起了。 条件熵仅能大于等于零而不会有负值,而且不大于原来的熵,即当知道y时,不确定度肯定是有所降低了。 在x与y独立无关时,条件熵与原熵值相等 信息增益是通过熵与条件熵的差计量的 掷一次骰子,由于六种结局(点)的出
阅读全文
posted @ 2018-04-05 19:40 禅在心中
阅读(711)
评论(0)
推荐(0)
编辑
softmax为什么使用指数函数?(最大熵模型的理解)
摘要: 解释1: 他的假设服从指数分布族 解释2: 最大熵模型,即softmax分类是最大熵模型的结果。 关于最大熵模型,网上很多介绍: 在已知部分知识的前提下,关于未知分布最合理的推断就是符合已知知识最不确定或最随机的推断,其原则是承认已知事物(知识),且对未知事物不做任何假设,没有任何偏见。 所以,最大
阅读全文
posted @ 2018-04-05 17:29 禅在心中
阅读(4826)
评论(0)
推荐(0)
编辑
极大似然、最小二乘和梯度下降
摘要: 今天学习回归算法的过程中,对于常见到的名词:极大似然、最小二乘以及梯度下降做一个总结 机器学习的基本框架大都是模型、目标和算法! 如何让模型尽可能好的拟合或者分类数据呢?那么就需要有目标函数,所以要定下模型的cost function,其中的获取损失函数的方法。 对于线性回归,可以采用他的似然函数、
阅读全文
posted @ 2018-04-05 14:13 禅在心中
阅读(1279)
评论(0)
推荐(0)
编辑
逻辑回归
摘要: 对于逻辑回归,之前看了多遍感觉自己理解了,今天突然发现自己根本没有理解,就连基本的损失函数都没有理解,回过头在看了一下,才明白其中一些表达试的含义。 譬如,上面对于某个x的预测值,sigmoid之后的值,如上所示,其实是被用来当作判断的概率值啊 如上,假设得到的 预测值为h(x),这个值判读为1的概
阅读全文
posted @ 2018-04-05 13:12 禅在心中
阅读(207)
评论(0)
推荐(0)
编辑
上一页
1
2
3
4
5
6
7
下一页