Transformer加载预训练模型实践
以使用google-bert/bert-base-chinese 模型为例
- 下载预训练模型
官方站点:https://www.huggingface.co/(如果无法访问,使用镜像站点)
镜像站点:https://hf-mirror.com/
搜索框内搜索自己需要的模型,点击Files and versions ,
一般下载config.json、pytorch_model.bin、tokenizer.json、tokenizer_config.json、vocab.txt文件,放在自己设置的文件夹内
- 加载
# 初始化tokenizer tokenizer = BertTokenizer.from_pretrained(model_dir + '/other_code_files/bert_files/') 注意这里加斜杠 # 定义模型类 class Newsxxx(nn.Module): def __init__(self, n_classes): super(NewsClassifier, self).__init__() self.bert = BertModel.from_pretrained(model_dir + '/other_code_files/bert_files') 注意这里不加斜杠
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 上周热点回顾(3.3-3.9)
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· AI 智能体引爆开源社区「GitHub 热点速览」