上一页 1 2 3 4 5 6 ··· 8 下一页
摘要: ZooKeeper 基础 在深入了解ZooKeeper的运作之前,让我们来看看ZooKeeper的基本概念。[1] 我们将在本章中讨论以下主题:1、Architecture(架构)2、Hierarchical namespace(层次命名空间)3、Session(会话)4、Watch(监视) Zoo 阅读全文
posted @ 2018-11-12 23:08 马小豆包 阅读(3402) 评论(0) 推荐(0) 编辑
摘要: 分布式应用 分布式应用 distributed application 可以在给定时间(同时)在网络中的多个系统上运行,通过协调它们以快速有效的方式完成特定任务。 (a), (b): a distributed system. (c): a parallel system. 通过将分布式应用配置为在 阅读全文
posted @ 2018-11-12 17:49 马小豆包 阅读(290) 评论(0) 推荐(0) 编辑
摘要: 作业说明 Exercise 3,Week 4,使用Octave实现图片中手写数字 0-9 的识别,采用两种方式(1)多分类逻辑回归(2)多分类神经网络。对比结果。 (1)多分类逻辑回归:实现 lrCostFunction 计算代价和梯度。实现 OneVsAll 使用 fmincg 函数进行训练。使用 阅读全文
posted @ 2018-11-10 16:38 马小豆包 阅读(3561) 评论(1) 推荐(0) 编辑
摘要: 【1】 Answer:C 【2】 Answer:D 第二层要输出四个元素a1 a2 a3 a4。输入x有两个,加一个x0是三个。所以是4 * 3 【3】 Answer:C 【4】 Answer:C 【5】 Answer:A 相当于x1==0&&x2==0 【6】 Answer:C 10个类别,输出层 阅读全文
posted @ 2018-11-06 19:41 马小豆包 阅读(2364) 评论(0) 推荐(0) 编辑
摘要: 转:https://blog.csdn.net/red_stone1/article/details/80517672 课程介绍台湾大学林轩田老师曾在coursera上开设了两门机器学习经典课程:《机器学习基石》和《机器学习技法》。《机器学习基石》课程由浅入深、内容全面,基本涵盖了机器学习领域的很多 阅读全文
posted @ 2018-11-05 15:20 马小豆包 阅读(1112) 评论(0) 推荐(0) 编辑
摘要: 指数分布族 The exponential family 因为广义线性模型是围绕指数分布族的。大多数常用分布都属于指数分布族,服从指数分布族的条件是概率分布可以写成如下形式: η 被称作自然参数(natural parameter),或正则参数canonical parameter),它是指数分布族 阅读全文
posted @ 2018-11-02 14:58 马小豆包 阅读(987) 评论(0) 推荐(0) 编辑
摘要: Logistic Regression 逻辑回归 1.模型 逻辑回归解决的是分类问题,并且是二元分类问题(binary classification),y只有0,1两个取值。对于分类问题使用线性回归不行,因为直线无法将样本正确分类。 1.1 Sigmoid Function 因为 y∈{0,1},我 阅读全文
posted @ 2018-11-02 14:46 马小豆包 阅读(579) 评论(0) 推荐(0) 编辑
摘要: 机器学习三要素 机器学习的三要素为:模型、策略、算法。 模型:就是所要学习的条件概率分布或决策函数。线性回归模型 策略:按照什么样的准则学习或选择最优的模型。最小化均方误差,即所谓的 least-squares(在spss里线性回归对应的模块就叫OLS即Ordinary Least Squares) 阅读全文
posted @ 2018-11-02 12:33 马小豆包 阅读(1472) 评论(0) 推荐(0) 编辑
摘要: 作业说明 Exercise 2,Week 3,使用Octave实现逻辑回归模型。数据集 ex2data1.txt ,ex2data2.txt 实现 Sigmoid 、代价函数计算Computing Cost 和 梯度下降Gradient Descent。 文件清单 ex2.m - Octave/MA 阅读全文
posted @ 2018-10-31 15:52 马小豆包 阅读(3482) 评论(1) 推荐(0) 编辑
摘要: 神经网络是一种受大脑工作原理启发的模式。 它在许多应用中广泛使用:当您的手机解释并理解您的语音命令时,很可能是神经网络正在帮助理解您的语音; 当您兑现支票时,自动读取数字的机器也使用神经网络。 8.1 非线性假设 Non-linear Classification 参考视频 : 8 - 1 - No 阅读全文
posted @ 2018-10-31 10:09 马小豆包 阅读(3590) 评论(0) 推荐(0) 编辑
摘要: Lecture7 Regularization 正则化 7.1 过拟合问题 The Problem of Overfitting7.2 代价函数 Cost Function7.3 正则化线性回归 Regularized Linear Regression7.4 正则化的逻辑回归模型 Regulari 阅读全文
posted @ 2018-10-31 08:53 马小豆包 阅读(3048) 评论(0) 推荐(0) 编辑
摘要: 课上习题 【1】线性回归 Answer: D A 特征缩放不起作用,B for all 不对,C zero error不对 【2】概率 Answer:A 【3】预测图形 Answer:A 5 - x1 ≥ 0时,y = 1。即x1 ≤ 5时,y = 1 【4】凸函数 【5】代价函数 Answer:A 阅读全文
posted @ 2018-10-30 20:22 马小豆包 阅读(4799) 评论(0) 推荐(1) 编辑
摘要: Lecture6 Logistic Regression 逻辑回归 6.1 分类问题 Classification6.2 假设表示 Hypothesis Representation6.3 决策边界 Decision Boundary6.4 代价函数 Cost Function6.5 简化的代价函数 阅读全文
posted @ 2018-10-30 19:53 马小豆包 阅读(4870) 评论(1) 推荐(1) 编辑
摘要: 作业说明 Exercise 1,Week 2,使用Octave实现线性回归模型。数据集 ex1data1.txt ,ex1data2.txt 单变量线性回归必须实现,实现代价函数计算Computing Cost 和 梯度下降Gradient Descent。 多变量线性回归可选,实现 特征Featu 阅读全文
posted @ 2018-10-30 09:38 马小豆包 阅读(7489) 评论(1) 推荐(0) 编辑
摘要: 5.6 向量化 Vectorization 参考视频: 5 - 6 - Vectorization (14 min).mkv 下面是向量化的小例子,如果将所有u(j) 、所有v(j)、所有w(j)都看成列向量,则公式变为为向量加法 u = 2v + 5w 再复杂一些,在线性回归中 h(x) 的公式如 阅读全文
posted @ 2018-10-29 21:21 马小豆包 阅读(693) 评论(0) 推荐(0) 编辑
摘要: 5.5 控制语句: for, while, if 语句 参考视频: 5 - 5 - Control Statements_ for, while, if statements (13 min).mkv 定义函数 squareThisNumber(x),内容如下: 将函数保存为squarethisnu 阅读全文
posted @ 2018-10-29 20:52 马小豆包 阅读(565) 评论(0) 推荐(0) 编辑
摘要: 5.4 绘制数据图 参考视频: 5 - 4 - Plotting Data (10 min) 5.4.1 绘制曲线 2、画一个cos曲线 绘制多张图,需要指定将哪个曲线放在哪个图中。否则会一直绘制在当前窗口,覆盖之前的图形 点击一下第一张图片,再运行一下上面那行代码,图变为: 5.4.2 绘制可视化 阅读全文
posted @ 2018-10-29 16:41 马小豆包 阅读(522) 评论(0) 推荐(0) 编辑
摘要: Lecture 5 Octave教程 5.1 基本操作 Basic Operations 5.2 移动数据 Moving Data Around 5.3 计算数据 Computing on Data 5.4 绘制数据图 Plotting Data 5.5 控制语句: for, while, if 语 阅读全文
posted @ 2018-10-29 12:12 马小豆包 阅读(2769) 评论(0) 推荐(0) 编辑
摘要: 经常在使用python的时候需要安装各种模块,而pip是很强大的模块安装工具,但是由于国外官方pypi经常被墙,导致不可用,所以我们最好是将自己使用的pip源更换一下,这样就能解决被墙导致的装不上库的烦恼。 网上有很多可用的源,例如豆瓣:http://pypi.douban.com/simple/, 阅读全文
posted @ 2018-10-28 18:20 马小豆包 阅读(9034) 评论(1) 推荐(0) 编辑
摘要: Gradient Descent for Multiple Variables 【1】多变量线性模型 代价函数 Answer:AB 【2】Feature Scaling 特征缩放 Answer:D 【3】学习速率 α Answer: B,因为第一个比第二个下降的快。第三个上升说明α太大 【4】Mea 阅读全文
posted @ 2018-10-28 18:02 马小豆包 阅读(4208) 评论(0) 推荐(0) 编辑
摘要: Question 1 Consider the problem of predicting how well a student does in her second year of college/university, given how well she did in her first ye 阅读全文
posted @ 2018-10-28 15:41 马小豆包 阅读(7531) 评论(0) 推荐(0) 编辑
摘要: Lecture 4 Linear Regression with Multiple Variables 多变量线性回归 4.1 多维特征 Multiple Features4.2 多变量梯度下降 Gradient Descent for Multiple Variables4.3 梯度下降法实践 1 阅读全文
posted @ 2018-10-27 20:38 马小豆包 阅读(4925) 评论(2) 推荐(1) 编辑
摘要: Lecture3 Linear Algebra Review 线性代数回顾 3.1 矩阵和向量3.2 加法和标量乘法3.3 矩阵向量乘法3.4 矩阵乘法3.5 矩阵乘法的性质3.6 逆、转置 3.1 矩阵和向量 参考视频: 3 - 1 - Matrices and Vectors (9 min).m 阅读全文
posted @ 2018-10-27 18:21 马小豆包 阅读(3066) 评论(0) 推荐(1) 编辑
摘要: Lecture2 Linear regression with one variable 单变量线性回归 2.1 模型表示 Model Representation 2.1.1 线性回归 Linear regression 2.1.2 单变量线性回归 Linear regression with o 阅读全文
posted @ 2018-10-26 17:53 马小豆包 阅读(7234) 评论(2) 推荐(4) 编辑
摘要: 目录 1.1 欢迎1.2 机器学习是什么 1.2.1 机器学习定义 1.2.2 机器学习算法 - Supervised learning 监督学习 - Unsupervised learning 无监督学习 - Reinforcement learning 强化学习 - Recommender sy 阅读全文
posted @ 2018-10-26 16:17 马小豆包 阅读(7373) 评论(0) 推荐(1) 编辑
上一页 1 2 3 4 5 6 ··· 8 下一页