Spurs

  博客园 :: 首页 :: 博问 :: 闪存 :: 新随笔 :: 联系 :: 订阅 订阅 :: 管理 ::

随笔分类 -  Machine Learning

摘要:1. python 中 axis 参数直觉解释 网络上的解释很多,有的还带图带箭头.但在高维下是画不出什么箭头的.这里阐述了 axis 参数最简洁的解释. 假设我们有矩阵a, 它的shape是(4, 3), 如下: 要做如下不同维度求和操作: 观察上面代码,有: a.shape = (4, 3), 阅读全文
posted @ 2017-12-29 15:30 英雄与侠义的化身 阅读(2437) 评论(3) 推荐(0) 编辑

摘要:这个地方一开始是迷糊的,写代码做比较分析,总结出直觉上的经验. 某人若想看精准的解释,移步这个网址(http://blog.csdn.net/fireflychh/article/details/73743849),但我觉得直觉上的经验更有用,如下: 直觉上的经验: 1. 一件确定的事: paddi 阅读全文
posted @ 2017-12-13 22:31 英雄与侠义的化身 阅读(4001) 评论(0) 推荐(2) 编辑

摘要:第一页纸定义了损失函数的样子, theta, X 和 y 的 shape, 以及最终的损失函数向量表现形式. 第二页纸抄上了几个要用到的矩阵求导公式,以及推导过程和结果. 要说明的是:推导结果与theta, X 和 y 的 shape有直接关系.也就是说可能和某教材,某大牛教学视频的结论外貌上不一致 阅读全文
posted @ 2017-12-10 12:49 英雄与侠义的化身 阅读(3350) 评论(1) 推荐(0) 编辑

摘要:可能因为Andrew Ng用的是python3,而我是python2.7的缘故,我发现了坑.如下: 在辅助文件tf_utils.py中的random_mini_batches(X, Y, mini_batch_size = 64, seed = 0)函数中,把 改成 就ok了. 就是下面的这个函数: 阅读全文
posted @ 2017-11-30 22:17 英雄与侠义的化身 阅读(3426) 评论(0) 推荐(0) 编辑

摘要:我python2.7, 做吴恩达深度学习第2课第2周编程作业 Optimization Methods 时有2个坑: 1. 第一坑 需将辅助文件 的 函数中的 2 改成 2.0 , 保存后再重启jupyter notebook. 2. 第二坑 需将辅助文件 的 函数中的 c=y 改成 c=y[0], 阅读全文
posted @ 2017-11-27 15:36 英雄与侠义的化身 阅读(2757) 评论(0) 推荐(0) 编辑

摘要:0. numpy.random中的shuffle和permutation numpy.random.shuffle(x) and numpy.random.permutation(x),这两个有什么不同,或者说有什么关系? 答: np.random.permutation与np.random.shu 阅读全文
posted @ 2017-11-27 10:39 英雄与侠义的化身 阅读(568) 评论(0) 推荐(0) 编辑

摘要:安装很简单 . 我机器上,终端上用python,tangent报错,但在终端上用ipython,tangent不报错. 我检验是否可用tangent的方法是: 至于tangent具体用法,以后用到时再研究,并补充到这里. 阅读全文
posted @ 2017-11-07 23:03 英雄与侠义的化身 阅读(289) 评论(0) 推荐(0) 编辑

摘要:学习了吴恩达老师深度学习工程师第一门课,受益匪浅,尤其是吴老师所用的符号系统,准确且易区分. 遵循吴老师的符号系统,我对任意层神经网络模型进行了详细的推导,形成笔记. 有人说推导任意层MLP很容易,我表示怀疑啊.难道又是我智商的问题嘛╮(╯_╰)╭. 推导神经网络, 我用了一天.最后完成了,我就放心 阅读全文
posted @ 2017-11-01 16:06 英雄与侠义的化身 阅读(1231) 评论(0) 推荐(2) 编辑

摘要:2分类1隐层nn, 作业默认设置: 1个输出单元, sigmoid激活函数. (因为二分类); 4个隐层单元, tanh激活函数. (除作为输出单元且为二分类任务外, 几乎不选用 sigmoid 做激活函数); n_x个输入单元, n_x为训练数据维度; 总的来说共三层: 输入层(n_x = X.s 阅读全文
posted @ 2017-09-27 10:26 英雄与侠义的化身 阅读(563) 评论(0) 推荐(0) 编辑

摘要:向量化地实现 Logistic Regression 算法. 阅读全文
posted @ 2017-09-25 08:37 英雄与侠义的化身 阅读(285) 评论(0) 推荐(0) 编辑

摘要:Deap Learning(Ng) 学习笔记 author: 相忠良(Zhong Liang Xiang) start from: Sep. 8st, 2017 1 深度学习概论 打字太麻烦了,索性在吴老师的 text note 上直接标注,写出自己的总结和心得. 每一节,我都会用数字标出核心内容, 阅读全文
posted @ 2017-09-08 12:03 英雄与侠义的化身 阅读(306) 评论(0) 推荐(0) 编辑

摘要:这是半成品, 已完成了 部分, 形成了包含一棵完整树的 对象. 后续工作是需解析该 对象, 完成 工作. 阅读全文
posted @ 2017-08-14 12:46 英雄与侠义的化身 阅读(192) 评论(0) 推荐(0) 编辑

摘要:```python # !/usr/bin/python # -*- coding:utf-8 -*- """ Re-implement kNN algorithm as a practice 使用该 kNN re-implement 的前提: train data 的标签必须转成0,1,2,...的形式 """ # Author: 相忠良(Zhong-Liang Xiang) #... 阅读全文
posted @ 2017-08-14 12:42 英雄与侠义的化身 阅读(143) 评论(0) 推荐(0) 编辑

摘要:我仿照sk learn 中 GaussionNB 的结构, 重写了该算法的轮子,命名为 MyGaussionNB, 如下: 阅读全文
posted @ 2017-08-14 12:40 英雄与侠义的化身 阅读(180) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示