摘要: [code] [blog] 主要思想和贡献 以前,NLP中的对抗攻击一般都是针对特定输入的,那么他们对任意的输入是否有效呢? 本文搜索通用的对抗性触发器:与输入无关的令牌序列,当连接到来自数据集的任何输入时,这些令牌序列触发模型生成特定的预测。 例如,触发器导致SNLI隐含精度从89.94%下降到 阅读全文
posted @ 2019-09-18 23:52 山竹小果 阅读(1379) 评论(0) 推荐(1) 编辑
摘要: 攻击 supporting facts 的修改:字符调换,替换词(用空格embedding或近同义词,变形词等) 还有针对question的攻击。 梯度下降,在embediing上做攻击,如何decode是个问题。 防御 如果把大量对抗样本加到训练样本一起训练不够显示,作用不是很大,随时都可能会有新 阅读全文
posted @ 2019-09-18 20:34 山竹小果 阅读(318) 评论(0) 推荐(0) 编辑
摘要: 主要思想 这篇文章主要是利用多个标准进行中文分词,和之前复旦的那篇文章比,它的方法更简洁,不需要复杂的结构,但比之前的方法更有效。 方法 堆叠的LSTM,最上层是CRF。 最底层是字符集的Bi-LSTM。输入:字符集embedding,输出:每个字符的上下文特征表示。 得到ht之后, CRF作为推理 阅读全文
posted @ 2019-09-18 10:55 山竹小果 阅读(579) 评论(0) 推荐(0) 编辑