Transformer加载预训练模型实践

以使用google-bert/bert-base-chinese 模型为例

  1. 下载预训练模型
    官方站点:https://www.huggingface.co/(如果无法访问,使用镜像站点)
    镜像站点:https://hf-mirror.com/
    搜索框内搜索自己需要的模型,点击Files and versions ,

     一般下载config.json、pytorch_model.bin、tokenizer.json、tokenizer_config.json、vocab.txt文件,放在自己设置的文件夹内

  2. 加载
    # 初始化tokenizer
        tokenizer = BertTokenizer.from_pretrained(model_dir + '/other_code_files/bert_files/')  注意这里加斜杠
    
        # 定义模型类
        class Newsxxx(nn.Module):
            def __init__(self, n_classes):
                super(NewsClassifier, self).__init__()
                self.bert = BertModel.from_pretrained(model_dir + '/other_code_files/bert_files') 注意这里不加斜杠
posted @   django_start  阅读(78)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 上周热点回顾(3.3-3.9)
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· AI 智能体引爆开源社区「GitHub 热点速览」
点击右上角即可分享
微信分享提示