上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 76 下一页
摘要: 论文地址:https://arxiv.org/abs/1906.05226?context=cs 已有研究工作: 本文主要参考了google那篇经典的ENAS模型,ENAS通过树结构的搜索空间或者Q-learning,基于权重共享策略进行架构搜索。 本文的工作和创新点:、 在ENAS的基础上,提出了 阅读全文
posted @ 2020-04-21 00:09 bernieloveslife 阅读(395) 评论(0) 推荐(0) 编辑
摘要: 论文地址:https://www.aclweb.org/anthology/P19-1105/ 研究的问题: 关注的是结合语义的文本分类问题,以往的研究,比如用word2vec的方法,是将单词映射到一个隐空间中。但是word2vec对于一个单词,它的表示是固定的,所以无法解决一词多义的问题。 解决的 阅读全文
posted @ 2020-04-21 00:03 bernieloveslife 阅读(236) 评论(0) 推荐(0) 编辑
摘要: 论文地址:https://www.aclweb.org/anthology/Q19-1013/ 研究的问题: 主要关注的是有附加信息的文本分类问题,比如使用用户/产品信息进行情感分类,实现自定义化的文本分类任务。比如可以提供用户信息来定制分类器,也可以向分类器提供特定于文本的类别列表来预测分类。框架 阅读全文
posted @ 2020-04-21 00:00 bernieloveslife 阅读(211) 评论(0) 推荐(0) 编辑
摘要: 论文地址:https://www.aclweb.org/anthology/Q19-1011/ 已有研究工作: 之前的研究工作没有将文本分割和文档分类在整个文档级别上联合进行过;在数据集方面,缺少主题漂移情况的数据。 本文的工作和创新点: 1、提出了一个端到端的模型SECTOR,它可以将文档分割为连 阅读全文
posted @ 2020-04-20 23:56 bernieloveslife 阅读(412) 评论(0) 推荐(0) 编辑
摘要: 论文地址:https://www.aclweb.org/anthology/P19-1104/ 已有研究工作: 修改一篇文章的作者风格尚未有很可靠的方法,基于规则的方法不够灵活,也没有针对特定作者足够的规则集,基于单语机器翻译缺乏足够数据集,循环使用多语翻译的方法已经被证明是无效的,同时,这些方法缺 阅读全文
posted @ 2020-04-20 23:53 bernieloveslife 阅读(214) 评论(0) 推荐(0) 编辑
摘要: 论文地址:https://www.aclweb.org/anthology/P19-1103/ 已有研究工作: 在文本的对抗样本领域,因为有词嵌入的存在,很难将特征空间的扰动向量映射到词汇表中的有效单词。因此在CV领域的方法不能直接用于NLP领域,一般的方法是在词级别或者字符级别直接修改原始样本,来 阅读全文
posted @ 2020-04-20 23:50 bernieloveslife 阅读(1151) 评论(0) 推荐(0) 编辑
摘要: 基本原理: Encoder-decoder框架为文本处理领域的一种非常流行的框架,这项技术突破了传统的输入大小固定的问题,将深度神经网络模型用到了自然语言处理的相关任务之中。其不仅可以用在对话生成任务中,同样应用在自然语言处理的其他领域,如机器翻译、文本摘要、句法分析等任务中。 Seq2seq模型最 阅读全文
posted @ 2020-04-19 23:25 bernieloveslife 阅读(1305) 评论(0) 推荐(0) 编辑
摘要: 论文地址: https://arxiv.org/abs/1906.06298 研究的问题: 已有研究工作: 神经网络训练的主流方法是在大型数据集上最小化任务损失,但是它需要大量的训练集,比如训练一个翻译模型需要大量对应的句子对,对于有注释的数据就很难使用。比如下面这个例子。 以往的研究是需要通过改变 阅读全文
posted @ 2020-04-19 23:19 bernieloveslife 阅读(494) 评论(0) 推荐(0) 编辑
摘要: 论文地址:https://arxiv.org/abs/1902.01541 已有的研究工作: 本文关注的是文献的实体解析问题,当前的state-of-art是mention-pair模型,但是该方法在计算和标记数据方面的成本都比较高。 本文的工作和创新点: 本文提出了一种以增量方式处理文本、动态解析 阅读全文
posted @ 2020-04-19 22:42 bernieloveslife 阅读(206) 评论(0) 推荐(0) 编辑
摘要: 论文地址:https://arxiv.org/abs/1905.07799?context=cs.LG 研究的问题: 相对于LSTM来说,Transformer几乎在所有的NLP任务上都能胜出。但是有一点,Transformer的时间复杂度是O(n^2)的,因为对于每一步,它都需要计算该步与之前的所 阅读全文
posted @ 2020-04-19 22:40 bernieloveslife 阅读(1717) 评论(0) 推荐(0) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 76 下一页