书生·浦语大模型全链路开源体系+internlm2报告

学习资料来源:

书生·浦语大模型全链路开源体系_哔哩哔哩_bilibili

arxiv.org/pdf/2403.17297.pdf

 

# 模型规格

7b 和 20b

internlm2的三个版本:internlm2质量好,internlm2-base可塑性好,internlm2-chat对话好

建模质量的提升,可以在相同数据的情况下有更好的表现。

 

# 模型亮点

1. 20w上下文,

2. 推理数学代码能力提升,

3. 结构化创作

4. 工具调用能力

5. 内生计算、代码解释

轻量级和重量级,同级无敌

 

# 应用案例

带有情感,有共情能力的对话

结构化写作,续写、创作

计算能力、1000以内计算,规划求解

可以给一份数据,让它分析

 

 

# 评测维度

经常想不到怎么总结大模型的能力,这样就挺好:

语言、知识、推理、数学、代码、智能体

 

api?怎么调用呢?后面的课程里注意一下

 

提问?数据集指哪种数据?

书籍、视频课程、文章、数字矩阵?

 

论文,没有很多读论文的经验。

作为新手,先看看摘要吧,以下是百度翻译的结果。如果感觉不太通顺,可能是ai领域的专有名词?

 

像ChatGPT和GPT-4这样的大型语言模型(LLM)的发展引发了关于通用人工智能(AGI)出现的讨论。然而,在开源模型中复制这些进步一直是一项挑战。

本文介绍了InternetLM2,这是一种开源LLM,通过创新的预训练和优化技术,在6个维度和30个基准的综合评估、长上下文建模和开放式主观评估方面优于其前身。

InternetLM2的预训练过程非常详细,强调了各种数据类型的准备,包括文本、代码和长上下文数据。

InternetLM2有效地捕获了长期依赖性,最初在4k个词点上进行训练,然后在预训练和微调阶段升级到32k个词点,在200k个“干草堆中的针”测试中表现出非凡的性能。

InternLM2使用 监督微调(SFT)和一种新的 基于人类反馈的条件在线强化学习(COOL-RLHF)策略 进行了进一步调整,该策略解决了人类偏好冲突和奖励黑客攻击。

通过发布不同训练阶段和模型大小的InternetLM2模型,我们为社区提供了对模型演变的见解。

 

 

作为初学者,或者门外汉。不得不把整个模型当做一个黑箱。哪怕里面的技术细节都被完整展开,着眼点还是怎么用和用来干嘛的层面。

用来干嘛:

在6个维度和30个基准的综合评估、长上下文建模和开放式主观评估方面。

 总结的不错,大概能搞清楚黑箱能干嘛。新问题可能还得在实践中思考。

 


上面提出了一个问题关于训练集,文中给出了答案:

 

那假如我们普通人要做一份数据集该如何组织呢?假如是纯文本的,100份公司内部公文案例,应该用txt还是doc格式?一份案例一个文件还是全部放在一个文件里?要在每个案例前标注该案例的写作目的吗?

 也许可以这样弄?下次试试。

 

posted @ 2024-03-28 13:44  windiest  阅读(163)  评论(0编辑  收藏  举报