摘要: 录: 前提: 已安装python 在vsc中安装pthon模块 快速入门 打开控制台(ctrl+shift+P):Python: Select Interpreter,选择python解释器 或者在软件的下方点击选择python环境 智能补全:智能补全在python标准库和你设置的python环境中 阅读全文
posted @ 2018-04-07 17:50 Echo_fy 阅读(303) 评论(0) 推荐(0) 编辑
摘要: 整理自Andrew Ng 的 machine learnig 课程 week1 目录: 什么是机器学习 监督学习 非监督学习 一元线性回归 模型表示 损失函数 梯度下降算法 模型表示 损失函数 梯度下降算法 1、什么是机器学习 Arthur Samuel不是一个playing checker的高手, 阅读全文
posted @ 2018-04-06 13:04 Echo_fy 阅读(281) 评论(0) 推荐(0) 编辑
摘要: 目录: 什么是因子分析 因子分析的作用 因子分析模型 因子分析的统计特征 因子载荷矩阵的估计方法 因子旋转 为什么要做因子旋转 因子旋转方法 为什么要做因子旋转 因子旋转方法 因子得分 因子分析步骤 举例 因子分析和主成分分析区别 1、什么是因子分析? 因子分析是一种数据简化技术。 它通过研究众多变 阅读全文
posted @ 2018-04-05 21:32 Echo_fy 阅读(3305) 评论(0) 推荐(0) 编辑
摘要: 整理自李航老师统计机器学习。 拍照版纸质笔记。 目录: 线性支持向量机与软间隔最大化 学习的对偶算法 支持向量 合页损失函数 核函数与核技巧 非线性支持向量机 序列最小最优化(SMO)算法 序列最小最优化(SMO)算法 支持向量机的学习问题即凸二次规划的求解问题,有很多的算法可以进行求解。但是当训练 阅读全文
posted @ 2018-04-03 09:24 Echo_fy 阅读(144) 评论(0) 推荐(0) 编辑
摘要: 整理自Andrew Ng的machine learning课程 week2. 目录: 多元线性回归 Multivariates linear regression /MLR Gradient descent for MLR Feature Scaling and Mean Normalization 阅读全文
posted @ 2018-04-02 10:31 Echo_fy 阅读(381) 评论(0) 推荐(0) 编辑
摘要: 目录: 申请ak 批量获取地理位置 优缺点对比 目的:通过给定的地理位置名称(如:北京市海淀区上地十街十号),获取经纬度信息。 1、申请ak 以百度Geocoding API为例: http://lbsyun.baidu.com/index.php?title=webapi/guide/webser 阅读全文
posted @ 2018-03-29 08:01 Echo_fy 阅读(3489) 评论(0) 推荐(0) 编辑
摘要: 目录 常用 常用数学公式 常用希腊字母 说明:博客园中的Latex编辑是以$ latex公式 $,为边界。 1、常用 2、常用数学公式 \begin{bmatrix}1 & 2 & 3\\ 4 & 5 & 6\end{bmatrix} $\begin{matrix}1 & 2 & 3\\ 4 & 5 阅读全文
posted @ 2018-03-28 15:19 Echo_fy 阅读(19865) 评论(0) 推荐(0) 编辑
摘要: 目录: 网站分析 爬取下载链接 爬取TIFF图片 1、网站分析 主页面:https://neo.sci.gsfc.nasa.gov/view.php?datasetId=MYDAL2_M_AER_OD 需求:下载不同年份、不同月份、AAOT和TAOT数据; 点击AAOT和TAOT和年份可知,链接: 阅读全文
posted @ 2018-03-28 14:14 Echo_fy 阅读(782) 评论(0) 推荐(0) 编辑
摘要: 目录: 常用Markdown公式及注意事项 标题 列表 链接 区块 代码块 / 引用 粗体和斜体 文字块 图片 表格 横线 页内跳转注意事项 其他重要需注意 Markdown preview 标题 列表 链接 区块 代码块 / 引用 粗体和斜体 文字块 图片 表格 横线 前提:以下都是github显 阅读全文
posted @ 2018-03-26 08:16 Echo_fy 阅读(544) 评论(0) 推荐(0) 编辑
摘要: 整理自Andrew Ng的machine learning课程。 目录: 梯度下降算法 梯度下降算法的直观展示 线性回归中的梯度下降 前提: 线性回归模型 :$h(\theta_0,\theta_1)=\theta_0+\theta_1x$ 损失函数:$J(\theta_0,\theta_1)=\f 阅读全文
posted @ 2018-03-24 20:35 Echo_fy 阅读(475) 评论(0) 推荐(0) 编辑