上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 22 下一页
摘要: print("Type integers,each followed by Enter; or just Enter to finish") total = 0 count = 0 while True: line = input("Integer: ") if line: try: number =int(line) ex... 阅读全文
posted @ 2018-10-12 11:00 流星小子 阅读(141) 评论(0) 推荐(0) 编辑
摘要: 1. 设置环境变量 2.在命令行提示符下输入 · jupyter notebook D:\Python\Source 即可进入jupyter notebook 阅读全文
posted @ 2018-10-01 17:36 流星小子 阅读(157) 评论(0) 推荐(0) 编辑
摘要: 1. python 绘图介绍 2. 函数 3.图形 阅读全文
posted @ 2018-08-08 17:29 流星小子 阅读(174) 评论(0) 推荐(0) 编辑
摘要: 1.索引的作用: (1)提高查询速度 (2)提高排序速度 (3)提高分组统计的速度 2.索引的解析: explain select * from t4 where a1=3 and a2>4 and a3= 5 3.聚簇索引和非聚簇索引 myisam 存储引擎使用的是非聚簇索引 innodb 采用的 阅读全文
posted @ 2018-08-03 23:21 流星小子 阅读(90) 评论(0) 推荐(0) 编辑
摘要: 1.什么是泛化能力? 在机器学习方法中,泛化能力通俗来讲就是指学习到的模型对未知数据的预测能力。在实际情况中,我们通常通过测试误差来评价学习方法的泛化能力。 2.泛化误差的定义 大家马上应该发现,这个不是损失函数的期望吗?? 没错,泛化误差就是所学习到的模型的损失函数期望(期望误差) 阅读全文
posted @ 2018-07-31 10:46 流星小子 阅读(686) 评论(0) 推荐(0) 编辑
摘要: 1.梯度下降法 (1)需要选择学习率a (2)需要多次迭代 优点:梯度下降法在特征变量很多的情况下也能运行地相当好 2.正规方程法 (1)不需要选择学习率a (2)不需要迭代 (3) 正规方程法不需要做特征缩放 缺点:当正规方程法的特征矩阵维度比较大时,会慢很多 总结:当n维比较小时,正规方程法比较 阅读全文
posted @ 2018-07-28 19:18 流星小子 阅读(369) 评论(0) 推荐(0) 编辑
摘要: 梯度下降法公式: 求 就是找到一个 能够最小化代价函数J() 如何确保梯度下降正常工作?如何选择学习率a (learning rate )? 今天就给大家总结一下学习率有关的知识 当学习率a选择过大可能出现随着迭代次数的增加,代价函数J() 越来越大,不会收敛。 这个时候就需要减小学习率。 数据家已 阅读全文
posted @ 2018-07-28 17:17 流星小子 阅读(534) 评论(0) 推荐(0) 编辑
摘要: 梯度下降法 既然在变量空间的某一点处,函数沿梯度方向具有最大的变化率,那么在优化目标函数的时候,自然是沿着负梯度方向去减小函数值,以此达到我们的优化目标。 如何沿着负梯度方向减小函数值呢?既然梯度是偏导数的集合,如下: 同时梯度和偏导数都是向量,那么参考向量运算法则,我们在每个变量轴上减小对应变量值 阅读全文
posted @ 2018-07-28 16:51 流星小子 阅读(113) 评论(0) 推荐(0) 编辑
摘要: 1. linear regression algorithm 线性回归算法 2.cost function 代价函数 3. gradient descent algorithm 梯度下降法("Batch") 4. 奇异矩阵:没有逆矩阵的矩阵叫奇异矩阵(退化矩阵) 回归问题(Regression Pr 阅读全文
posted @ 2018-07-27 21:28 流星小子 阅读(248) 评论(0) 推荐(0) 编辑
摘要: 1. 用户相似度评价 (1)欧几里德距离 (2)皮尔逊相关度评价 (3)jaccard 系数 (4)曼哈顿距离算法 阅读全文
posted @ 2018-07-27 15:04 流星小子 阅读(99) 评论(0) 推荐(0) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 22 下一页