随笔分类 - 深度学习 / 大模型 / 书生浦语大模型
Imdeploy笔记
摘要:Smiling & Weeping 天气不好的时候,我会小心地把自己心上的裂缝补起来。为什么?... LMDeploy 的量化和部署 1 环境配置 2 服务部署 2.1 模型转换 2.1.1 在线转换 2.1.2 离线转换 2.2 TurboMind 推理+命令行本地对话 2.3 TurboMind
Opencompass笔记整理
摘要:Smiling & Weeping 山海自有归期,风雨自有相逢 大模型评测教程 随着人工智能技术的快速发展, 大规模预训练自然语言模型成为了研究热点和关注焦点。OpenAI于2018年提出了第一代GPT模型,开辟了自然语言模型生成式预训练的路线。沿着这条路线,随后又陆续发布了GPT-2和GPT-3模
XTuner大模型单卡低成本微调实战
摘要:Smiling & Weeping 有趣是片难寻的土,灵魂是朵难养的花 一些关于的模型训练的小tips: 1.ctrl+c中断 2.tmux new -s 名称 3.ctrl+b+D退出(没断) 基础作业:构建数据集,使用 XTuner 微调 InternLM-Chat-7B 模型, 让模型学习到它
作业二
摘要:Smiling & Weeping 你把时间对折,我就在裂缝中喜欢你 使用 LangChain+InternLM的RAG向量检索外挂知识库 > 探索模型知识边界(笔记&&作业) 基础作业: 进阶作业: 选择一个垂直领域,收集该领域的专业资料构建专业知识库,并搭建专业问答助手,并在 OpenXLab
作业1
摘要:Smiling & Weeping 暂且负些霜雪,拭与春天 基础作业: 使用 InternLM-Chat-7B 模型生成 300 字的小故事(需截图) 熟悉 hugging face 下载功能,使用 huggingface_hub python 包,下载 InternLM-20B 的 config.
书生浦语大模型全链开源体系介绍
摘要:Smiling & Weeping 以后隔着三千梨花树,六百湘水,你不必哽咽,我始终记得见你的第一面 2023大模型成为热门关键词 而通用大模型在大模型中适用范围和效率无疑会更高 那么书生·浦语20B开源大模型性能介绍 那么从模型到应用的主要流程大概 书生·浦语全链条开源开放体系 全链条开源开放体系