01 2019 档案

摘要:一、*args的使用方法 *args 用来将参数打包成tuple给函数体调用 二、**kwargs的使用方法 **kwargs 打包关键字参数成dict给函数体调用 阅读全文
posted @ 2019-01-29 09:28 光彩照人 阅读(194) 评论(0) 推荐(0) 编辑
摘要:一、基本装饰器 调用abc() 输出:wrapper abc #装饰函数def decorator(foo): def wrapper(): print ('wrapper') return foo() return wrapper @decoratordef abc(): print ('abc' 阅读全文
posted @ 2019-01-28 17:05 光彩照人 阅读(188) 评论(0) 推荐(0) 编辑
摘要:一、协方差 公式上理解:如果有X,Y两个变量,每个时刻的“X值与其均值之差”乘以“Y值与其均值之差”得到一个乘积,再对这每时刻的乘积求和并求出均值(准确说是期望,可以暂按均值方便理解)。 通俗理解:协方差反映的是两个变量是否是同向变化,你增大我也增大,则是正相关,数值为正;如果你增大我变小,则是反向 阅读全文
posted @ 2019-01-24 12:01 光彩照人 阅读(2472) 评论(0) 推荐(0) 编辑
摘要:一、概念 支持向量机是学习策略的间隔最大化,可形式化为一个求解凸二次规划的问题,也等价于正则化的合页损失函数的最小化问题。支持向量机的学习算法是求解凸二次规划的最优化算法。 二、问题类型 1)训练数据线性可分时,通过硬间隔最大化,学习一个线性的分类器,叫线性可分支持向量机,又称硬间隔支持向量机。 2 阅读全文
posted @ 2019-01-16 12:02 光彩照人 阅读(862) 评论(0) 推荐(0) 编辑
摘要:在优化理论中,目标函数 f(x) 会有多种形式:如果目标函数和约束条件都为变量 x 的线性函数, 称该问题为线性规划; 如果目标函数为二次函数, 约束条件为线性函数, 称该最优化问题为二次规划; 如果目标函数或者约束条件均为非线性函数, 称该最优化问题为非线性规划。 阅读全文
posted @ 2019-01-13 16:35 光彩照人 阅读(660) 评论(0) 推荐(0) 编辑
摘要:一、任务 Named Entity Recognition,简称NER。主要用于提取时间、地点、人物、组织机构名。 二、应用 知识图谱、情感分析、机器翻译、对话问答系统都有应用。比如,需要利用命名实体识别技术自动识别用户的查询,然后将查询中的实体链接到知识图谱对应的结点上,其识别的准确率将会直接影响 阅读全文
posted @ 2019-01-11 15:25 光彩照人 阅读(4637) 评论(0) 推荐(0) 编辑
摘要:隐马尔可夫模型(Hidden Markov Model,HMM),最大熵马尔可夫模型(Maximum Entropy Markov Model,MEMM)以及条件随机场(Conditional Random Field,CRF)是序列标注中最常用也是最基本的三个模型。 HMM首先出现,MEMM其次, 阅读全文
posted @ 2019-01-10 10:07 光彩照人 阅读(5678) 评论(0) 推荐(3) 编辑
摘要:一、概念 余弦相似度: 余弦距离:1-cos(A,B) 欧式距离: 二、两者之间的关系 当向量的模长是经过归一化的,此时欧氏距离与余弦距离有着单调的关系: 在此场景下,如果选择距离最小(相似度最大)的近邻,那么使用余弦相似度和欧氏距离的结果是相同的。 推导如下,这里面前提就是X和Y是归一化后的,也就 阅读全文
posted @ 2019-01-04 12:08 光彩照人 阅读(9892) 评论(0) 推荐(0) 编辑
摘要:一、第一个 二、第二个 注意:从上面样例可以看出,求解过程一定要先严格转换成公式的形式才行,不能根据自己理解去猜测。 阅读全文
posted @ 2019-01-04 11:42 光彩照人 阅读(45545) 评论(0) 推荐(0) 编辑
摘要:AI算法工程师手册 http://www.huaxiaozhuan.com/ 麻省理工线性公开课 http://open.163.com/special/opencourse/daishu.html 线性代数基础:https://www.cnblogs.com/hhddcpp/p/5742717.h 阅读全文
posted @ 2019-01-02 15:44 光彩照人 阅读(169) 评论(0) 推荐(0) 编辑
摘要:一、牛顿法 上述描述的都是只有一个自变量X的一元情况,如果是多元的,比如x1,x2,x3...,xn 呢? 二、对比分析梯度下降算法 从本质上去看,牛顿法是二阶收敛,梯度下降是一阶收敛,所以牛顿法就更快。如果更通俗地说的话,比如你想找一条最短的路径走到一个盆地的最底部,梯度下降法每次只从你当前所处位 阅读全文
posted @ 2019-01-02 15:16 光彩照人 阅读(1227) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示