会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
西西嘛呦
从自己能做到的开始,一件件来,缓慢而坚定地前进,尽力而为
博客园
首页
新随笔
联系
管理
2023年4月25日
LLM(大语言模型)解码时是怎么生成文本的?
摘要: Part1配置及参数 transformers==4.28.1 源码地址:transformers/configuration_utils.py at v4.28.1 · huggingface/transformers (github.com) 文档地址:Generation (huggingfa
阅读全文
posted @ 2023-04-25 17:34 西西嘛呦
阅读(4858)
评论(0)
推荐(1)
编辑
公告