摘要: 在网上搜到了两种attention机制的代码 1、 2、 假设输入(60, 15, 200) 的数据是指一个batch中60个句子,每个句子有15个词,每个词向量200维, 那么(60, 15, 1)的alpha,相当于每个字的权重。 阅读全文
posted @ 2018-08-10 11:06 草莓干123456 阅读(1037) 评论(0) 推荐(0) 编辑
摘要: import re A= '原因是CPU电路板故障,需要CPU电路板进行更换。' B='CPU电路板|原因' for i in re.finditer(B, A): print(i.group()+str(i.span())) 打印结果:原因(0, 2) CPU电路板(3, 9) CPU电路板(14, 20) 阅读全文
posted @ 2018-08-10 10:56 草莓干123456 阅读(2581) 评论(0) 推荐(0) 编辑