摘要: ABCNN是将注意力机制应用在卷积网络中的模型,在 answer selection(AS)、paraphrase identification(PI)和textual entailment(TE)等领域有很大价值。 阅读全文
posted @ 2020-06-24 15:31 TABball 阅读(603) 评论(0) 推荐(0) 编辑
摘要: 概述 深度结构化语义模型(Deep Structed Semantic Models),可用于匹配搜索问题和搜索答案,即匹配 query-doc 对。 DSSM 可分为输入层、表示层、匹配层。 输入层 输入层负责将输入句子转化为数据向量。传统方法一般是做独热编码,然而这里为了减小数据量并对没有在训练 阅读全文
posted @ 2020-06-23 09:38 TABball 阅读(365) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-06-22 10:25 TABball 阅读(444) 评论(0) 推荐(0) 编辑
摘要: 再次使用tensorflow的时候,已经用过三四个机器学习工具了,最近应实习公司的要求,从Pytorch又回来了! 吐槽 这次学习tensorflow和keras的过程是痛苦的。 我先去学tensorflow,tf 的工具真是细致,除了求导不用自己写啥都要慢慢搭建,想写一个稍微复杂一点的模型都要一个 阅读全文
posted @ 2020-06-08 21:08 TABball 阅读(269) 评论(0) 推荐(0) 编辑
摘要: Pandas主要有下面几种数据类型: Series(一维数组) DataFrame(二维数组) Panel(三维数组) Panel4D(四维数组) PanelND(N维数组) Series 其中, 可以是字典,或者NumPy 里的 ndarray 对象等。 是数据索引,索引是 Pandas 数据结构 阅读全文
posted @ 2020-05-05 09:09 TABball 阅读(141) 评论(0) 推荐(0) 编辑
摘要: 论文地址: "https://arxiv.org/abs/1911.04474" Abstract BiLSTMs结构在NLP的任务中广泛应用,最近,全连接模型Transformer大火,它的 self attention 机制和强大的并行计算能力使其在众多模型中脱颖而出,但是,原始版本的 Tran 阅读全文
posted @ 2020-04-27 21:35 TABball 阅读(2655) 评论(0) 推荐(0) 编辑
摘要: 在很多场景都遇到$L_1,L_2$正则化,但是一直不知道这二者具体是什么原理,最近看了相关教程,记录一下。希望也能帮到还不懂的朋友:grimacing:。 前置技能 范数 数(norm)是数学中的一种基本概念。在泛函分析中,它定义在赋范线性空间中,并满足一定的条件,即①非负性;②齐次性;③三角不等式 阅读全文
posted @ 2020-04-25 18:08 TABball 阅读(451) 评论(0) 推荐(0) 编辑
摘要: dropout dropout指的是在神经网络层中,随即删掉一定比例的神经元,让它们不发挥传递作用,使网络模型变得稀疏的一种模型方法。 网络中的神经元以概率$p$,变为$0$,以$q$的概率保留,其中$q = 1 p$。 为什么使用dropout 众所周知,深度学习一直有那么几个很让人头疼的问题,其 阅读全文
posted @ 2020-04-23 08:45 TABball 阅读(762) 评论(0) 推荐(0) 编辑
摘要: 最小圆覆盖 给定$n$个二维平面上的点,求一个面积最小的圆,可以覆盖所有点。 常见的是增量法实现的时间复杂度与空间复杂度均为$O(n)$的算法。 用$C_i$表示前$i$个点组成的最小圆。 1. 将所有点随机排序。 2. 按照顺序依次加入点,每次加入$i_{th}$点时进入操作3。 3. 如果当前点 阅读全文
posted @ 2020-04-21 20:44 TABball 阅读(196) 评论(0) 推荐(0) 编辑
摘要: 数据降维 数据降维在机器学习中非常有用,可以用来舍弃数据中一些区分度较小的特征,转化数据的观察视角,使其在更少量的特征维度上也有较好的表现。数据降维也可以用在将高维数据可视化的操作中,这都是不可或缺的重要算法, PCA PCA(Principal Components Analysis)主成分分析法 阅读全文
posted @ 2020-04-18 18:27 TABball 阅读(406) 评论(0) 推荐(0) 编辑