Harukaze

 
上一页 1 ··· 8 9 10 11 12 13 14 15 16 下一页

2021年1月26日

【论文阅读】Distant Supervision for Relation Extraction beyond the Sentence Boundary[ACL2017]

摘要: 论文地址:https://www.aclweb.org/anthology/E17-1110.pdf Abstract 第一个提出了针对与句间关系的distant supervision方法 At the core of our approach is a graph representation 阅读全文

posted @ 2021-01-26 22:14 Harukaze 阅读(263) 评论(0) 推荐(0)

【力扣】最长回文字符串

摘要: 给你一个字符串 s,找到 s 中最长的回文子串。 来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/longest-palindromic-substring 示例 1: 输入:s = "babad"输出:"bab"解释:"aba" 同样是符合题意 阅读全文

posted @ 2021-01-26 12:53 Harukaze 阅读(313) 评论(0) 推荐(0)

2021年1月25日

【论文阅读】Cross-Sentence N-ary Relation Extraction with Graph LSTMs[ACL2017]

摘要: 论文链接:https://www.aclweb.org/anthology/Q17-1008.pdf 代码链接(theano):https://github.com/VioletPeng/GraphLSTM_release In this paper, we explore a general re 阅读全文

posted @ 2021-01-25 17:28 Harukaze 阅读(508) 评论(0) 推荐(0)

2021年1月24日

【代码粗读】Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification

摘要: 首先是对于下载下来的数据集进行初步处理将原数据集中的'<e1>','</e1>','<e2>','</e2>'标签替换为'ENT_1_START','ENT_2_END','ENT_2_START','ENT_2_END',处理过后生成json格式的文件: 1 def load_data(path) 阅读全文

posted @ 2021-01-24 23:25 Harukaze 阅读(269) 评论(0) 推荐(0)

2021年1月23日

【力扣】无重复字符的最长字串

摘要: 来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/longest-substring-without-repeating-characters 给定一个字符串,请你找出其中不含有重复字符的 最长子串 的长度。 示例 1: 输入: s = "abca 阅读全文

posted @ 2021-01-23 12:25 Harukaze 阅读(140) 评论(0) 推荐(0)

2021年1月22日

【力扣】第224场周赛

摘要: 1 可以形成最大正方形的矩形数目 来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/number-of-rectangles-that-can-form-the-largest-square 给你一个数组 rectangles ,其中 rectan 阅读全文

posted @ 2021-01-22 21:43 Harukaze 阅读(95) 评论(0) 推荐(0)

【论文阅读】Attention-based bidirectional long short-term memory networks for relation classification[ACL2016]

摘要: 原文链接:https://www.aclweb.org/anthology/P16-2034/ 代码链接(Pytorch):https://github.com/zhijing-jin/pytorch_RelationExtraction_AttentionBiLSTM 作者只使用了预训练词向量以及 阅读全文

posted @ 2021-01-22 17:21 Harukaze 阅读(1095) 评论(0) 推荐(0)

2021年1月20日

【代码精读】Relation classification via multi-level attention CNNs

摘要: SemEval-2010 Task-8 官方文档:https://docs.google.com/document/d/1QO_CnmvNRnYwNWu1-QCAeR5ToQYkXUqFeAJbdEhsq7w/preview 数据集:https://github.com/CrazilyCode/Se 阅读全文

posted @ 2021-01-20 20:46 Harukaze 阅读(346) 评论(0) 推荐(0)

2021年1月18日

【论文阅读】Relation classification via multi-level attention CNNs[ACL2016]

摘要: 原文链接:https://www.aclweb.org/anthology/P16-1123.pdf 代码实现:https://github.com/dgai91/pytorch-acnn-model 关系抽取中我们会遇到很多表达同一种关系的不同方式。这种具有挑战性的变异性在本质上可以是词汇的lex 阅读全文

posted @ 2021-01-18 20:31 Harukaze 阅读(316) 评论(0) 推荐(0)

2021年1月17日

【代码精读】Position-aware Attention and Supervised Data Improve Slot Filling

摘要: 因为这篇文章采用LSTM+Attention设计了一个简单的关系抽取模型,我们只关注模型部分,其余数据处理与训练测试部分与https://www.cnblogs.com/Harukaze/p/14253446.html这篇文章的代码类似不做过多介绍。 底层LSTM模型以及embedding的设置: 阅读全文

posted @ 2021-01-17 01:03 Harukaze 阅读(265) 评论(0) 推荐(0)

上一页 1 ··· 8 9 10 11 12 13 14 15 16 下一页

导航