摘要:1. python 中 axis 参数直觉解释 网络上的解释很多,有的还带图带箭头.但在高维下是画不出什么箭头的.这里阐述了 axis 参数最简洁的解释. 假设我们有矩阵a, 它的shape是(4, 3), 如下: 要做如下不同维度求和操作: 观察上面代码,有: a.shape = (4, 3),
阅读全文
随笔分类 - Machine Learning
摘要:这个地方一开始是迷糊的,写代码做比较分析,总结出直觉上的经验. 某人若想看精准的解释,移步这个网址(http://blog.csdn.net/fireflychh/article/details/73743849),但我觉得直觉上的经验更有用,如下: 直觉上的经验: 1. 一件确定的事: paddi
阅读全文
摘要:第一页纸定义了损失函数的样子, theta, X 和 y 的 shape, 以及最终的损失函数向量表现形式. 第二页纸抄上了几个要用到的矩阵求导公式,以及推导过程和结果. 要说明的是:推导结果与theta, X 和 y 的 shape有直接关系.也就是说可能和某教材,某大牛教学视频的结论外貌上不一致
阅读全文
摘要:可能因为Andrew Ng用的是python3,而我是python2.7的缘故,我发现了坑.如下: 在辅助文件tf_utils.py中的random_mini_batches(X, Y, mini_batch_size = 64, seed = 0)函数中,把 改成 就ok了. 就是下面的这个函数:
阅读全文
摘要:我python2.7, 做吴恩达深度学习第2课第2周编程作业 Optimization Methods 时有2个坑: 1. 第一坑 需将辅助文件 的 函数中的 2 改成 2.0 , 保存后再重启jupyter notebook. 2. 第二坑 需将辅助文件 的 函数中的 c=y 改成 c=y[0],
阅读全文
摘要:0. numpy.random中的shuffle和permutation numpy.random.shuffle(x) and numpy.random.permutation(x),这两个有什么不同,或者说有什么关系? 答: np.random.permutation与np.random.shu
阅读全文
摘要:安装很简单 . 我机器上,终端上用python,tangent报错,但在终端上用ipython,tangent不报错. 我检验是否可用tangent的方法是: 至于tangent具体用法,以后用到时再研究,并补充到这里.
阅读全文
摘要:学习了吴恩达老师深度学习工程师第一门课,受益匪浅,尤其是吴老师所用的符号系统,准确且易区分. 遵循吴老师的符号系统,我对任意层神经网络模型进行了详细的推导,形成笔记. 有人说推导任意层MLP很容易,我表示怀疑啊.难道又是我智商的问题嘛╮(╯_╰)╭. 推导神经网络, 我用了一天.最后完成了,我就放心
阅读全文
摘要:2分类1隐层nn, 作业默认设置: 1个输出单元, sigmoid激活函数. (因为二分类); 4个隐层单元, tanh激活函数. (除作为输出单元且为二分类任务外, 几乎不选用 sigmoid 做激活函数); n_x个输入单元, n_x为训练数据维度; 总的来说共三层: 输入层(n_x = X.s
阅读全文
摘要:向量化地实现 Logistic Regression 算法.
阅读全文
摘要:Deap Learning(Ng) 学习笔记 author: 相忠良(Zhong Liang Xiang) start from: Sep. 8st, 2017 1 深度学习概论 打字太麻烦了,索性在吴老师的 text note 上直接标注,写出自己的总结和心得. 每一节,我都会用数字标出核心内容,
阅读全文
摘要:这是半成品, 已完成了 部分, 形成了包含一棵完整树的 对象. 后续工作是需解析该 对象, 完成 工作.
阅读全文
摘要:```python # !/usr/bin/python # -*- coding:utf-8 -*- """ Re-implement kNN algorithm as a practice 使用该 kNN re-implement 的前提: train data 的标签必须转成0,1,2,...的形式 """ # Author: 相忠良(Zhong-Liang Xiang) #...
阅读全文
摘要:我仿照sk learn 中 GaussionNB 的结构, 重写了该算法的轮子,命名为 MyGaussionNB, 如下:
阅读全文