上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 25 下一页
摘要: 一、任务 Named Entity Recognition,简称NER。主要用于提取时间、地点、人物、组织机构名。 二、应用 知识图谱、情感分析、机器翻译、对话问答系统都有应用。比如,需要利用命名实体识别技术自动识别用户的查询,然后将查询中的实体链接到知识图谱对应的结点上,其识别的准确率将会直接影响 阅读全文
posted @ 2019-01-11 15:25 光彩照人 阅读(4629) 评论(0) 推荐(0) 编辑
摘要: 一、牛顿法 上述描述的都是只有一个自变量X的一元情况,如果是多元的,比如x1,x2,x3...,xn 呢? 二、对比分析梯度下降算法 从本质上去看,牛顿法是二阶收敛,梯度下降是一阶收敛,所以牛顿法就更快。如果更通俗地说的话,比如你想找一条最短的路径走到一个盆地的最底部,梯度下降法每次只从你当前所处位 阅读全文
posted @ 2019-01-02 15:16 光彩照人 阅读(1220) 评论(0) 推荐(0) 编辑
摘要: 在构建模型前,需要将样本集划分为训练集、验证集、测试集,按什么比例划分比较合适呢? 在机器学习发展的小数据量时代,常见做法是将所有数据三七分,就是人们常说的70%验证集,30%测试集,如果没有明确设置验证集,也可以按照60%训练,20%验证和20%测试集来划分。这是前几年机器学习领域普遍认可的最好的 阅读全文
posted @ 2018-12-29 14:50 光彩照人 阅读(3066) 评论(0) 推荐(0) 编辑
摘要: 图像: 定义: 设x1x1和x2x2为函数f(x)定义域内的任意两个实数,且x1x1 < t <x2x2,恒有: 则称f(x) 是定义域上的凸函数。 判定: 凸函数的判定: f(x) 在区间[a,b]上连续,在(a,b)内二阶可导,那么: 一阶判定条件: 设f(x)在凸集S上具有一阶连续偏导数,则f 阅读全文
posted @ 2018-12-28 15:05 光彩照人 阅读(1392) 评论(0) 推荐(0) 编辑
摘要: 一、定义 二叉排序树(Binary Sort Tree)又称二叉查找树、二叉搜索树。 它或者是一棵空树;或者是具有下列性质的二叉树: (1)若左子树不空,则左子树上所有结点的值均小于它的根结点的值; (2)若右子树不空,则右子树上所有结点的值均大于它的根结点的值; (3)左、右子树也分别为二叉排序树 阅读全文
posted @ 2018-12-23 17:40 光彩照人 阅读(10443) 评论(1) 推荐(0) 编辑
摘要: Facebook开源了自家工程师们一直在用的NLP建模框架PyText。这个框架,每天要为Facebook旗下各种应用处理超过10亿次NLP任务,Facebook AI的工业级NLP开源框架。(简化部署流程,大规模应用也OK) PyText基于PyTorch,能够加速从研究到应用的进度,从模型的研究 阅读全文
posted @ 2018-12-22 12:02 光彩照人 阅读(675) 评论(0) 推荐(0) 编辑
摘要: 网站地址:https://unbug.github.io/codelf/ GitHub 链接:https://github.com/unbug/codelf#codelf-for-vs-code https://mp.weixin.qq.com/s/zgVXov8SlXJlfLF8X0XLUA 网站 阅读全文
posted @ 2018-12-21 16:47 光彩照人 阅读(348) 评论(0) 推荐(0) 编辑
摘要: 后验概率就是一种条件概率,但是与其它条件概率的不同之处在于,它限定了目标事件为隐变量取值,而其中的条件为观测结果。 一般的条件概率,条件和事件都可以是任意的。 贝叶斯公式就是由先验概率求后验概率的公式 举例区分普通条件概率与后验概率的区别: 1)那么如果我们出门之前我们听到新闻说今天路上出了个交通事 阅读全文
posted @ 2018-12-21 10:46 光彩照人 阅读(8028) 评论(2) 推荐(1) 编辑
摘要: 基本思想 通过Dijkstra计算图G中的最短路径时,需要指定起点s(即从顶点s开始计算)。 此外,引进两个集合S和U。S的作用是记录已求出最短路径的顶点(以及相应的最短路径长度),而U则是记录还未求出最短路径的顶点(以及该顶点到起点s的距离)。 初始时,S中只有起点s;U中是除s之外的顶点,并且U 阅读全文
posted @ 2018-12-20 12:20 光彩照人 阅读(221) 评论(0) 推荐(0) 编辑
摘要: BERT的新语言表示模型,它代表Transformer的双向编码器表示。与最近的其他语言表示模型不同,BERT旨在通过联合调节所有层中的上下文来预先训练深度双向表示。因此,预训练的BERT表示可以通过一个额外的输出层进行微调(fine-tuning),适用于广泛任务的最先进模型的构建,比如问答任务和 阅读全文
posted @ 2018-12-19 15:32 光彩照人 阅读(5780) 评论(0) 推荐(1) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 25 下一页