上一页 1 2 3 4 5 6 ··· 8 下一页
摘要: Text Summarization with Pretrained Encoders(PreSumm模型) 论文地址 摘要 在本文中,我们展示了如何在文本摘要中有效地应用BERT,并为提取性模型和抽象模型提出了一个通用框架。我们介绍了基于BERT的新颖文档级编码器,该编码器能够表达文档的语义并获得 阅读全文
posted @ 2023-05-29 21:54 ︶ㄣ演戲ㄣ 阅读(12) 评论(0) 推荐(0) 编辑
摘要: ## 在中文数据集上预训练过的模型效果 ``` Generated Title: 传章子怡怀孕4个月, 预产期是年底前后, 已不接工作; 消息是章子怡怀孕了, 消息是真是假; 消息称章子怡怀孕的消息是假? (1) 科技频道光明网(组图) 。 Actual Title: 知情人透露章子怡怀孕后,父母很 阅读全文
posted @ 2023-05-24 22:36 ︶ㄣ演戲ㄣ 阅读(55) 评论(0) 推荐(0) 编辑
摘要: 1. 输入内容会带有一定的转写错误,会对模型的训练造成一个的干扰 用了input word replace方法,将一部分输入的词随机替换成其他词表中的词,这种类似于对抗训练的方法能够极大增加模型的鲁棒性,并且使得模型有一定的识别转写错误、纠正转写错误的能力。 input word replace 因 阅读全文
posted @ 2023-05-18 16:47 ︶ㄣ演戲ㄣ 阅读(30) 评论(0) 推荐(0) 编辑
摘要: 把英文语料翻译成中文 针对翻译的中文数据放入中文摘要模型进行推理,输出摘要。 比较输出的中文语料摘要 与 原始英文转录摘要 对比 1. 语料,一个中文语料,一个英文语料 2. 使用中文摘要生成模型 此模型在上述中文语料上是否进行过训练 1)是,相当于看过答案,生成的摘要效果较好。但对于英文语料(翻译 阅读全文
posted @ 2023-05-18 13:46 ︶ㄣ演戲ㄣ 阅读(11) 评论(0) 推荐(0) 编辑
摘要: Data collator used for BART denoising language modeling. The code is largely copied from `<https://github.com/morganmcg1/rotobart/blob/main/data_colla 阅读全文
posted @ 2023-05-11 17:59 ︶ㄣ演戲ㄣ 阅读(84) 评论(0) 推荐(0) 编辑
摘要: ChatGLM-6B https://github.com/THUDM/ChatGLM-6B 支持在单张 2080Ti 上进行推理使用。 在 1:1 比例的中英语料上训练了 1T 的 token 量 ChatGLM-6B 序列长度达 2048 fine-tune 需要Deepspeed 训练需要显存 阅读全文
posted @ 2023-05-05 11:38 ︶ㄣ演戲ㄣ 阅读(196) 评论(0) 推荐(0) 编辑
摘要: Longformer Roberta使用绝对位置编码,最大512.为了能够适应更长的文本,Longformer添加到4096。为了利用Roberta的预训练后的权重,多次复制512位置编码。 做了实验,对比随机初始化位置编码和复制位置编码,显示出复制位置编码的重要性。 扩展BART的1K token 阅读全文
posted @ 2023-04-23 17:48 ︶ㄣ演戲ㄣ 阅读(82) 评论(0) 推荐(0) 编辑
摘要: 使用模型 复旦nlp——fnlp_bart_large_Chinese | 注意力头 |encoder/decoder层数 |词嵌入表示 | | | | | | 16 | 12 | 1024 | 词典使用BertTokenizer, vocab_size: 51271 在nlpcc数据集上微调模型 阅读全文
posted @ 2023-04-21 09:38 ︶ㄣ演戲ㄣ 阅读(478) 评论(0) 推荐(0) 编辑
摘要: 当前最流行的先进模型 huggingface社区 paperswithcode 大部分模型都是基于以下表中模型,做了数据集或其他部分的微小变动。 在近几年各种论文的对比实验中,基本对照的模型都是以下模型: |模型 | 描述 | 能否训练| | | | | | BART | 通用模型,适合做摘要任务 阅读全文
posted @ 2023-04-14 11:09 ︶ㄣ演戲ㄣ 阅读(55) 评论(0) 推荐(0) 编辑
摘要: 当前大模型的低成本实现方案: 语言模型 + 指令微调数据 + 微调加速 llama + alpaca_data(Fine-tuning) + lora 语言模型: ... 指令微调数据: 在一组通过指示描述的数据集上对语言模型微调,大大提高了在未见过任务上的 Zero-Shot 能力。 通过对多种任 阅读全文
posted @ 2023-04-11 17:40 ︶ㄣ演戲ㄣ 阅读(88) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 8 下一页