摘要: 介绍 自然语言生成指的是从语义解析生成语言描述如逻辑表格、AMR和SQL查询等格式化的输入表达,由于它对最新的自然语言交互的可解释性和使用性的潜在贡献,这项任务吸引了广泛的注意。最近,如BERT、T5一样的大规模预训练已经提高从规则化文本生成自然语言的能力到了一个在流畅度和连贯性都非常有希望的高度。 阅读全文
posted @ 2021-11-03 15:35 TABball 阅读(137) 评论(0) 推荐(0) 编辑
摘要: 原文地址 介绍 数据到文本的生成方法指的是从非文本的输入中生成描述性文本的任务。输入种类不同,任务可以定义地更加明确,比如摘要信息生成文本,信息框生成文本,图生成文本。 在这些任务中,我们关注逻辑表到文本的生成任务,这项任务旨在从表格生成流畅的但是逻辑正确的文本。而逻辑推理是一种高级的智能,这对现实 阅读全文
posted @ 2021-10-31 18:37 TABball 阅读(90) 评论(0) 推荐(0) 编辑
摘要: 原文连接 介绍 结构化数据自然语言生成在很多应用中都是重要的研究领域,最近的数据驱动方法在自然语言生成领域已经取得了很好的表现。然而,大多数研究都关注于简单记录的浅层描述,比如,非常有限或固定模式下的属性值对,比如E2E。在真实世界的多行表格场景中,更需要的是从数据记录中推理出更高级别的逻辑并生成描 阅读全文
posted @ 2021-10-30 20:54 TABball 阅读(213) 评论(0) 推荐(0) 编辑
摘要: 摘要 本文针对的话题是关于使用反事实增强数据来提高模型效果,使用简单的因果模型结构来分析观测噪音对模型表现的影响,并且研究了两种自动生成反事实数据的方法和人为去生成有什么区别。 本文提出了一个猜想: 如果把人为标注的因果特征修改为随机噪音,那么在跨域实验效果会变差,而原始数据影响不大 如果把认为表述 阅读全文
posted @ 2021-10-28 11:21 TABball 阅读(350) 评论(0) 推荐(0) 编辑
摘要: 声明 本文原文来自于:arxiv 介绍 在大语料上训练的预训练模型可以学习得到通用的语言表达知识,对很多下游任务表现有帮助。随着算力的提升、训练方法越来越强,这些模型也越来越深。 第一代预训练模型学习词嵌入模型,由于模型本身不会用在后面的任务中,因此大多比较浅; 第二代预训练模型关注结合上下文语境的 阅读全文
posted @ 2021-06-29 11:01 TABball 阅读(973) 评论(0) 推荐(0) 编辑
摘要: 前言 近两日开发了一个在线字典小插件,相比于market中的其他字典插件,我的功能相当简单,但也很轻,算是我开发的第一个完整的 vscode 插件。今后根据需求我还会扩展其功能,或者开发其他的有趣插件。 Installation 首先要确保自己安装了npm。 对于Ubuntu 用户,直接选择 sud 阅读全文
posted @ 2020-10-29 10:53 TABball 阅读(199) 评论(0) 推荐(0) 编辑
摘要: 此文并非教程,只为以后新装操作系统需要的东西做个记录~ 阅读全文
posted @ 2020-10-25 09:07 TABball 阅读(227) 评论(0) 推荐(0) 编辑
摘要: 经常做NLP任务,要想获得好一点的准确率,需要一个与训练好的embedding模型。 参考:github Install pip install pytorch-pretrained-bert Usage BertTokenizer BertTokenizer会分割输入的句子,便于后面嵌入。 imp 阅读全文
posted @ 2020-10-09 10:52 TABball 阅读(2612) 评论(0) 推荐(0) 编辑
摘要: vue2 基础知识 我使用最多的特点就是vue的渲染和组件方法了。 模板语法 vue通过模板语法支持对html组件的渲染。 <p> {{message}} </p> 在标签属性中使用v- <div v-if="show"> this is only shown when show=true </di 阅读全文
posted @ 2020-09-03 15:58 TABball 阅读(88) 评论(0) 推荐(0) 编辑
摘要: 发现一个很好的教程系列:VSCode插件开发全攻略。 待我学完我也写一写。 update 2020/9/2 求助帖!!! 一直尝试写一个自动debug c的插件,因为有大量的用c写算法的需求,所以想自己开发一个这样的插件,能够自动进行对拍操作。 逻辑 选择有 🐛的代码文件,输入命令:对拍。 生成标 阅读全文
posted @ 2020-08-06 20:43 TABball 阅读(714) 评论(0) 推荐(0) 编辑