随笔分类 -  AI 之 ML

深度学习是机器学习的一个特定分支
支持向量机(svm)
摘要:一、概述 阅读全文

posted @ 2017-11-01 18:38 阳台 阅读(135) 评论(0) 推荐(0) 编辑

MachineLearning之Logistic回归
摘要:一、概述 假设现在有一些数据点,我们用一条直线对这些点进行拟合(该线称为最佳拟合直线),这个拟合过程就称为回归; 利用Logistic回归进行分类的主要思想是: 根据现有数据对分类边界线建立回归公式, 以此进行分类。 这里的“回归”一词源于最佳拟合, 表示要找到最佳拟合参数集, 其背后的数学分析将在 阅读全文

posted @ 2017-10-31 11:18 阳台 阅读(257) 评论(0) 推荐(0) 编辑

ML之监督学习算法之分类算法一 ——— 决策树算法
摘要:一、概述 决策树(decision tree)的一个重要任务是为了数据中所蕴含的知识信息,因此决策树可以使用不熟悉的数据集合,并从中提取出一系列规则,在这些机器根据数据创建规则时,就是机器学习的过程。 二、决策树的构造 决策树: 优点:计算复杂度不高, 输出结果易于理解, 对中间值的缺失不敏感, 可 阅读全文

posted @ 2017-10-26 18:00 阳台 阅读(773) 评论(0) 推荐(0) 编辑

ML之监督学习算法之分类算法一 ———— k-近邻算法(最邻近算法)
摘要:一、概述 最近邻规则分类(K-Nearest Neighbor)KNN算法 由Cover 和Hart在1968年提出了最初的邻近算法, 这是一个分类(classification)算法 输入基于实例的学习(instance-based learning), 懒惰学习(lazy learning) 二 阅读全文

posted @ 2017-10-26 14:13 阳台 阅读(312) 评论(0) 推荐(0) 编辑

卷积神经网络
摘要:一、概述 两种神经网络: 全连接神经网络 卷积神经网络(局部连接,相对于全连接而言) 全连接神经网络 卷积神经网络(局部连接,相对于全连接而言) 全连接神经网络 weight太多了,导致计算量太大 pooling(池化): 特征聚集、降维(降低维度)、光滑 目的: 降低输出规模 增加可解释性 避免丢 阅读全文

posted @ 2017-10-25 18:03 阳台 阅读(297) 评论(0) 推荐(0) 编辑

TensorFlow Google大会总结
摘要:一、概述 介绍TPU,需要使用XLA编译,否则没有做内部优化,无法达到加速的效果; TPU相关的性能分析器: 二、新版本的输入库 之前TensorFlow的输入方式: feed_dict: 太过于低效 Queue: python多线程,全局锁的问题;同样低效,而且对应其中错误的数据无法友好处理; f 阅读全文

posted @ 2017-10-25 11:23 阳台 阅读(364) 评论(0) 推荐(0) 编辑

机器学习 之 线性代数
摘要:一、概述 范德蒙行列式:(vandermonde) 矩阵乘法: 矩阵乘法引入的问题: 矩阵的秩: 秩与线性方程组的解的关系: 向量组等价: C=AB: 正交矩阵: 特征值 特征向量: 特征值的性质: 不同特征值对应的特征向量: 阅读全文

posted @ 2017-10-23 12:25 阳台 阅读(376) 评论(0) 推荐(0) 编辑

AI 高等数学、概率论基础
摘要:一、概论 基础引入: 原理一:【两边夹定理】 原理二:【极限】 X为角度x对应的圆弧的点长; 原理三【单调性】: 引入: 二、导数 常见函数的导数: 四、应用: 求解: 泰勒展式和麦克劳林展式: 泰勒展式在x0 = 0处展开得到麦克劳林展式 Taylor公式的应用1: 变种: Taylor公式应用2 阅读全文

posted @ 2017-10-18 18:58 阳台 阅读(761) 评论(0) 推荐(0) 编辑

TensorFlow 基本概念
摘要:一、概述 使用图(graph)来表示计算任务 在会话(Session)的上下文(context)中执行图(graph) 使用tensor表示数据 通过 变量(Variable)维护状态 使用 feed 和fetch可为任意的操作(arbitrary opertaion)赋值或者从其中获取数据; Te 阅读全文

posted @ 2017-09-14 11:25 阳台 阅读(710) 评论(0) 推荐(0) 编辑

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示