上一页 1 ··· 4 5 6 7 8 9 10 11 12 ··· 31 下一页
  2021年12月9日
摘要: 稀疏矩阵 在矩阵中,若数值为0的元素数目远远多于非0元素的数目,并且非0元素分布没有规律时,则称该矩阵为稀疏矩阵;与之相反,若非0元素数目占大多数时,则称该矩阵为稠密矩阵。定义非零元素的总数比上矩阵所有元素的总数为矩阵的稠密度。 就是很稀疏,像程序员的头发[尴尬] 稀疏编码 稀疏编码(Sparse 阅读全文
posted @ 2021-12-09 19:35 宋岳庭 阅读(349) 评论(0) 推荐(0) 编辑
摘要: 变量 代码 展现 说明 \mathcal y \(\mathcal y\) \mathcal Y \(\mathcal Y\) 词典 \epsilon \(\epsilon\) \varepsilon \(\varepsilon\) \phi \(\phi\) \varphi \(\varphi\) 阅读全文
posted @ 2021-12-09 14:37 宋岳庭 阅读(33) 评论(0) 推荐(0) 编辑
  2021年11月30日
摘要: 杰弗里·辛顿(Geoffrey Hinton) 深度学习三巨头之一,2018年的图灵奖获得者 一直是致力于使用人工神经网络让计算机去模拟人类大脑存储和思考。 1986年,在《自然》杂志上发表了论文《通过误差反向传播算法的学习表示》(“Learning Representations by Back- 阅读全文
posted @ 2021-11-30 14:50 宋岳庭 阅读(637) 评论(0) 推荐(0) 编辑
  2021年11月29日
摘要: Long and Diverse Text Generation with Planning-based Hierarchical Variational Model (EMNLP 2019) 规划是人们进行文字创作的基本步骤。人们在写作之前,特别是在创作长篇幅作品之前,往往需要在作品的多个维度上进 阅读全文
posted @ 2021-11-29 18:30 宋岳庭 阅读(211) 评论(0) 推荐(0) 编辑
摘要: 本文仅供学习使用 这是清华大学2019年在EMNLP发表的工作,文本生成方向。 ARAML: A Stable Adversarial Training Framework for Text Generation (EMNLP 2019) 最大似然估计是语言生成中的最常用的方法,但该方法面临包括偏差 阅读全文
posted @ 2021-11-29 18:24 宋岳庭 阅读(60) 评论(0) 推荐(0) 编辑
  2021年11月18日
摘要: 1. 常用希腊字母 | 代码 | 渲染 | 代码 | 渲染 | 代码 | 渲染 | 代码 | 渲染 | | | | | | | | | | | \alpha | $\alpha$ | \beta | $\beta$ | \gamma | $\gamma$ | \delta | $\delta$ | 阅读全文
posted @ 2021-11-18 09:57 宋岳庭 阅读(176) 评论(0) 推荐(0) 编辑
  2021年11月15日
摘要: CPT: A Pre-Trained Unbalanced Transformer for Both Chinese Language Understanding and Generation 复旦大学,邱锡鹏老师团队 使用不平衡的Transformer编码器解码器架构,用MLM和DAE联合预训练, 阅读全文
posted @ 2021-11-15 10:15 宋岳庭 阅读(899) 评论(0) 推荐(0) 编辑
  2021年11月11日
摘要: 生成文本的自动评估。 神经模型的评估有这么几种:看做是匹配任务、看做是回归任务、看做是排序任务、看做是生成任务。 BARTScore就是将生成文本的评估看做是文本生成任务。 代码:https://github.com/neulab/BARTScore.git This is the Repo for 阅读全文
posted @ 2021-11-11 11:41 宋岳庭 阅读(885) 评论(1) 推荐(0) 编辑
  2021年11月8日
摘要: https://openaccess.thecvf.com/content_CVPRW_2020/papers/w34/Wang_A_Method_for_Detecting_Text_of_Arbitrary_Shapes_in_Natural_CVPRW_2020_paper.pdf Qiton 阅读全文
posted @ 2021-11-08 21:02 宋岳庭 阅读(57) 评论(0) 推荐(0) 编辑
  2021年10月28日
摘要: 清华大学计算机科学与技术系,智源人工智能研究院,联合工作 https://arxiv.org/pdf/2106.07139.pdf 全文结构 背景 大模型的问题 本文贡献 本文思路 阅读全文
posted @ 2021-10-28 16:37 宋岳庭 阅读(185) 评论(0) 推荐(0) 编辑
上一页 1 ··· 4 5 6 7 8 9 10 11 12 ··· 31 下一页