2023/3/21 组会:ChatGPT 对数据增强的影响及 ChatGPT 的鲁棒性,Dense 和 Document 检索方法

前两个也许跟上了,后两个完全没跟上,以后再详细读读吧qwq

反正组会跟不上才是正常现象。

AugGPT: Leveraging ChatGPT for Text Data Augmentation#

摘要、引言、相关工作#

当下数据增强两个缺陷

  1. 真实性不足,有的跟原始 label 有偏移
  2. 生成的数据缺乏紧凑性

利用 ChatGPT 改进先前的数据增强方法

FSL(few shot learning):

  • 下游上只有 1-2 个样本

RW#

数据增强方法:

  1. character level
    1. OCR 这种自带的缺陷做数据增强,比如 O -> 0
  2. word level
    1. 随机替换、反转、删除
    2. 同义词替换
  3. contextual
    1. 利用预训练模型本身自有的知识做数据增强
  4. sequence
    1. 翻译过去再翻译回来

模型#

AugGPT 的框架#

image-20230321190928510

  1. 把原始的话输入 ChatGPT 中,然后让它改写。
  2. BERT 做 mask 的预测

image-20230321191200364

Loss#

做了对比损失

实验#

数据集#

  1. Amazon dataset:24 类,分类
  2. Symptoms Dataset:分类症状
  3. PubMed20k Dataset:分类

指标#

  • 余弦相似度
    • 跟 BERT 类似,把 [CLS] 取出来,然后比较余弦相似度
  • 信息熵相关的某个指标(Transrate)

结果#

image-20230321191709305

ChatGPT 在 Symptoms 上取得了爆炸的效果(我估计是练过),作者认为是这个数据集比较简单

prompt design#

image-20230321192826740

On the Robustness of ChatGPT: An Adversarial and Out-of-distribution Perspective#

摘要、引言、相关工作#

image-20230321193954510

鲁棒性是可解释性的一个指标,因此本文从对抗和 OOD(这个 OOD 只能拿 22 年以后数据的测试)做分析。

例如,尝试用虚假新闻骗过 ChatGPT。

9 个任务,超过 2089 个样本上分析。

ChatGPT 在 Adverseral 和 OOD 上都优于先前的模型。

  1. ChatGPT 在哪些方面做的好
    1. ChatGPT 翻译任务上表现比较好
    2. ChatGPT 在 Adverseral 和 OOD 上都比较好
    3. 对话表现好
  2. 表现不好:
    1. ChatGPT 和人类认为它的水平有差距
    2. 翻译任务上不如 text-davinci-003
    3. ChatGPT 对于医学领域相关的问题无法给出确定答案,只能给出一些建议。

模型#

两个任务的目标函数#

image-20230321194434226

实验#

数据集#

image-20230321194747026

结果#

image-20230321195009605

ChatGPT 表现最好

  1. ChatGPT 在对抗数据集上都表现很好
  2. 所有 GPT-2 这一系列的模型都在 OOD 数据集上表现很好
  3. ChatGPT 比较其他的大模型在基于对话的理解上表现更好

Dense Passage Retrieval for Open-Domain Question Answering#

摘要、引言、相关工作#

  • Sparse Retrieval
  • Dense Retrieval
  • 自回归检索(Autoregressive retrieval)

image-20230321201627171

作者提问:是否可以只用(问题,文章)对在没有额外的与训练是训练一个更好的 dense 潜入模型?

模型#

Loss#

image-20230321201858580

以下有几种负例构建方式:

  1. 随机从语料库中选负例
  2. BM25 找出来不包括答案但是匹配大多数问题词元的负例
  3. Gold:与训练集中出现的其他问题配对的积极段落

实验#

结果#

image-20230321202116470

负例越多,效果可能越好

A Neural Corpus Indexer for Document Retrieval#

据说本篇有很大争议

摘要、引言、相关工作#

作者认为:

  1. dense retrieval 和 term-based retrieval 都没有办法充分利用神经网络的能力。
  2. 模型不能合成深度的 查询-文档 交互。

模型#

image-20230321202921531

实验#

后面跟不上了

posted @   bringlu  阅读(620)  评论(0编辑  收藏  举报
阅读排行:
· 周边上新:园子的第一款马克杯温暖上架
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· DeepSeek如何颠覆传统软件测试?测试工程师会被淘汰吗?
· 使用C#创建一个MCP客户端
点击右上角即可分享
微信分享提示
主题色彩