上一页 1 2 3 4 5 6 ··· 9 下一页
摘要: 前言 这是刷Leetcode的时候看到的,寻找数组中出现次数为1次、2次、3次的数字。 简单的思路就是用map或者排序搜索, 但是核心思想应该是位运算来做,有时间的时候要专门补一下位运算的解法,先挖个坑。。 2:https://leetcode-cn.com/problems/shu-zu-zhon 阅读全文
posted @ 2021-10-12 20:28 永远是个小孩子 阅读(61) 评论(0) 推荐(0) 编辑
摘要: 论文原文链接:[2002.00293] Beat the AI: Investigating Adversarial Human Annotation for Reading Comprehension (arxiv.org) 来源:TACL2020 使用到的数据集:SQuAD1.1、DROP、Na 阅读全文
posted @ 2021-10-10 13:53 永远是个小孩子 阅读(60) 评论(0) 推荐(0) 编辑
摘要: 论文原文链接:[1805.08092] Efficient and Robust Question Answering from Minimal Context over Documents (arxiv.org) 来源:ACL2018 动机 以前的阅读理解模型在文档长度比较长的时候运算复杂度高,而 阅读全文
posted @ 2021-09-16 18:47 永远是个小孩子 阅读(81) 评论(0) 推荐(0) 编辑
摘要: 论文:Retrospective Reader for Machine Reading Comprehension,是上海交大的一篇论文 阅读及复现这篇论文的契机是因为它是SQuAD2.0榜单前几名中唯一一个有论文的。 摘要 机器阅读理解(MRC)要求机器基于给定的文段提取出问题的答案,不仅需要找到 阅读全文
posted @ 2021-07-29 11:56 永远是个小孩子 阅读(290) 评论(0) 推荐(0) 编辑
摘要: 具体顺序不是按照模型出现的顺序,而是按照我在组会上讲的顺序。会在每个模型的一开头列出参考的博客以及论文。 主要写的是自己的理解,但是推荐一个有趣的博客:BERT and it's family RNN结构,双向LSTM,Transformer, BERT对比分析 RoBERTa 论文:RoBERTa 阅读全文
posted @ 2021-07-29 01:26 永远是个小孩子 阅读(496) 评论(0) 推荐(0) 编辑
摘要: 参考博客 https://wmathor.com/index.php/archives/1456/ https://blog.csdn.net/sunhua93/article/details/102764783,非常详细 预训练模型 用巨大的数据来训练一个泛化能力很强的模型,当我们需要在特定场景使 阅读全文
posted @ 2021-07-28 23:30 永远是个小孩子 阅读(963) 评论(0) 推荐(0) 编辑
摘要: 参考博客 https://wmathor.com/index.php/archives/1438/,大佬讲的非常清晰!!!博客排版也非常值得学习。 https://zhuanlan.zhihu.com/p/85612521,Transformer三部曲,也解释了attention机制 http:// 阅读全文
posted @ 2021-07-28 22:29 永远是个小孩子 阅读(3887) 评论(0) 推荐(1) 编辑
摘要: 参考博客 https://zybuluo.com/hanbingtao/note/581764,LSTM的超详细解释 https://blog.csdn.net/qq_36696494/article/details/89028956,RNN、LSTM一起的详解,例子很详细。 长短时记忆网络(LST 阅读全文
posted @ 2021-07-28 20:42 永远是个小孩子 阅读(1116) 评论(0) 推荐(0) 编辑
摘要: 参考博客 https://zybuluo.com/hanbingtao/note/541458 语言模型 语言模型:语言模型是对一种语言的特征进行建模,例如给定一个一句话前面的部分,预测接下来最有可能的一个词是什么。让神经网络输出概率:softmax层作为输出层。 N-Gram:假设一个词出现的概率 阅读全文
posted @ 2021-07-28 18:00 永远是个小孩子 阅读(915) 评论(0) 推荐(0) 编辑
摘要: 参考博客 https://www.zybuluo.com/hanbingtao/note/485480 卷积神经网络 卷积神经网络(Convolutional Neural Network, CNN),示例图如下: 一个CNN由卷积层、池化层(pooling)和全连接层组成。它的常用架构模式是前面是 阅读全文
posted @ 2021-07-28 16:53 永远是个小孩子 阅读(722) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 9 下一页