会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
sunshine丶23
博客园
首页
新随笔
联系
订阅
管理
随笔 - 17
文章 - 2
评论 - 1
阅读 -
14291
10 2023 档案
16GB显卡推理80G大模型
摘要:最近看到一篇推文是在不量化、不损失精度的情况下使用一张16G的显卡推理70B的大模型。方案来自于kaggle的一个方案,具体流程为: 1.创建一个空的(例如,没有权重的)模型 2.决定每一层将要去哪里(当有多个设备可用时) 3.在内存中加载其权重的一部分 4.在空模型中加载这些权重 5.将权重移动到
阅读全文
posted @
2023-10-19 14:20
sunshine丶23
阅读(536)
评论(0)
推荐(0)
编辑
公告
昵称:
sunshine丶23
园龄:
5年6个月
粉丝:
0
关注:
0
+加关注
<
2025年3月
>
日
一
二
三
四
五
六
23
24
25
26
27
28
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
我的标签
bert
(2)
命名实体标注
(2)
机器学习
(2)
transformer
(1)
StructBERT
(1)
CRF
(1)
attention
(1)
albert
(1)
隐马尔可夫
(1)
问题记录
(1)
更多
合集
大模型(5)
随笔分类
NLP(8)
机器学习(1)
问题日常(1)
随笔档案
2024年10月(1)
2024年1月(3)
2023年10月(1)
2023年9月(2)
2023年8月(1)
2023年1月(1)
2022年11月(2)
2020年10月(2)
2019年11月(3)
2019年10月(1)
文章分类
NLP(1)
文本相似度(1)
阅读排行榜
1. transformer模型简介(3850)
2. 使用docker搭建deepspeed多机多卡分布式微调大模型环境(2550)
3. Windows对python文件加密(1381)
4. 基于SentencePiece扩充LLaMa中文词表(1005)
5. 条件随机场简介(684)
评论排行榜
1. 基于本地知识库和LLM的知识库问答难点及解决方案(1)
最新评论
1. Re:基于本地知识库和LLM的知识库问答难点及解决方案
你好,这个观点挺好的,能否给出一个完整的demo
--276704686
点击右上角即可分享