会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
永远是个小孩子
博客园
首页
新随笔
联系
管理
订阅
上一页
1
2
3
4
5
6
···
9
下一页
2021年10月12日
数组中数字出现的次数
摘要: 前言 这是刷Leetcode的时候看到的,寻找数组中出现次数为1次、2次、3次的数字。 简单的思路就是用map或者排序搜索, 但是核心思想应该是位运算来做,有时间的时候要专门补一下位运算的解法,先挖个坑。。 2:https://leetcode-cn.com/problems/shu-zu-zhon
阅读全文
posted @ 2021-10-12 20:28 永远是个小孩子
阅读(61)
评论(0)
推荐(0)
编辑
2021年10月10日
Beat the AI:Investigating Adversarial Human Annotation for Reading Comprehension论文阅读笔记
摘要: 论文原文链接:[2002.00293] Beat the AI: Investigating Adversarial Human Annotation for Reading Comprehension (arxiv.org) 来源:TACL2020 使用到的数据集:SQuAD1.1、DROP、Na
阅读全文
posted @ 2021-10-10 13:53 永远是个小孩子
阅读(60)
评论(0)
推荐(0)
编辑
2021年9月16日
Sentence-selector:Efficient and Robust Question Answering from Minimal Context over Documents论文阅读笔记
摘要: 论文原文链接:[1805.08092] Efficient and Robust Question Answering from Minimal Context over Documents (arxiv.org) 来源:ACL2018 动机 以前的阅读理解模型在文档长度比较长的时候运算复杂度高,而
阅读全文
posted @ 2021-09-16 18:47 永远是个小孩子
阅读(81)
评论(0)
推荐(0)
编辑
2021年7月29日
Retrospective Reader论文及原理
摘要: 论文:Retrospective Reader for Machine Reading Comprehension,是上海交大的一篇论文 阅读及复现这篇论文的契机是因为它是SQuAD2.0榜单前几名中唯一一个有论文的。 摘要 机器阅读理解(MRC)要求机器基于给定的文段提取出问题的答案,不仅需要找到
阅读全文
posted @ 2021-07-29 11:56 永远是个小孩子
阅读(290)
评论(0)
推荐(0)
编辑
BERT相关变体原理理解
摘要: 具体顺序不是按照模型出现的顺序,而是按照我在组会上讲的顺序。会在每个模型的一开头列出参考的博客以及论文。 主要写的是自己的理解,但是推荐一个有趣的博客:BERT and it's family RNN结构,双向LSTM,Transformer, BERT对比分析 RoBERTa 论文:RoBERTa
阅读全文
posted @ 2021-07-29 01:26 永远是个小孩子
阅读(496)
评论(0)
推荐(0)
编辑
2021年7月28日
BERT原理理解
摘要: 参考博客 https://wmathor.com/index.php/archives/1456/ https://blog.csdn.net/sunhua93/article/details/102764783,非常详细 预训练模型 用巨大的数据来训练一个泛化能力很强的模型,当我们需要在特定场景使
阅读全文
posted @ 2021-07-28 23:30 永远是个小孩子
阅读(963)
评论(0)
推荐(0)
编辑
Transformer原理理解
摘要: 参考博客 https://wmathor.com/index.php/archives/1438/,大佬讲的非常清晰!!!博客排版也非常值得学习。 https://zhuanlan.zhihu.com/p/85612521,Transformer三部曲,也解释了attention机制 http://
阅读全文
posted @ 2021-07-28 22:29 永远是个小孩子
阅读(3887)
评论(0)
推荐(1)
编辑
LSTM原理理解
摘要: 参考博客 https://zybuluo.com/hanbingtao/note/581764,LSTM的超详细解释 https://blog.csdn.net/qq_36696494/article/details/89028956,RNN、LSTM一起的详解,例子很详细。 长短时记忆网络(LST
阅读全文
posted @ 2021-07-28 20:42 永远是个小孩子
阅读(1116)
评论(0)
推荐(0)
编辑
RNN原理理解
摘要: 参考博客 https://zybuluo.com/hanbingtao/note/541458 语言模型 语言模型:语言模型是对一种语言的特征进行建模,例如给定一个一句话前面的部分,预测接下来最有可能的一个词是什么。让神经网络输出概率:softmax层作为输出层。 N-Gram:假设一个词出现的概率
阅读全文
posted @ 2021-07-28 18:00 永远是个小孩子
阅读(915)
评论(0)
推荐(0)
编辑
CNN原理理解
摘要: 参考博客 https://www.zybuluo.com/hanbingtao/note/485480 卷积神经网络 卷积神经网络(Convolutional Neural Network, CNN),示例图如下: 一个CNN由卷积层、池化层(pooling)和全连接层组成。它的常用架构模式是前面是
阅读全文
posted @ 2021-07-28 16:53 永远是个小孩子
阅读(722)
评论(0)
推荐(0)
编辑
上一页
1
2
3
4
5
6
···
9
下一页
公告