摘要:
[code] [blog] 主要思想和贡献 以前,NLP中的对抗攻击一般都是针对特定输入的,那么他们对任意的输入是否有效呢? 本文搜索通用的对抗性触发器:与输入无关的令牌序列,当连接到来自数据集的任何输入时,这些令牌序列触发模型生成特定的预测。 例如,触发器导致SNLI隐含精度从89.94%下降到 阅读全文
摘要:
攻击 supporting facts 的修改:字符调换,替换词(用空格embedding或近同义词,变形词等) 还有针对question的攻击。 梯度下降,在embediing上做攻击,如何decode是个问题。 防御 如果把大量对抗样本加到训练样本一起训练不够显示,作用不是很大,随时都可能会有新 阅读全文
摘要:
主要思想 这篇文章主要是利用多个标准进行中文分词,和之前复旦的那篇文章比,它的方法更简洁,不需要复杂的结构,但比之前的方法更有效。 方法 堆叠的LSTM,最上层是CRF。 最底层是字符集的Bi-LSTM。输入:字符集embedding,输出:每个字符的上下文特征表示。 得到ht之后, CRF作为推理 阅读全文