Bert神
在Hugging Face提供的transformers库中,BERT模型相关的类有很多,以下是一些常用的BERT模型类:
- BertModel: BERT模型的基本类,用于获取BERT模型的隐藏状态。
- BertForPreTraining: 用于预训练任务,包括Masked Language Modeling(MLM)和Next Sentence Prediction(NSP)。它除了具备BertModel的功能,还在其基础上增加了预训练任务的头部。
- BertForMaskedLM: 用于Masked Language Modeling(MLM)任务,该任务是通过掩盖输入序列中的某些标记,然后预测这些标记的正确值。
- BertForNextSentencePrediction: 用于Next Sentence Prediction(NSP)任务,该任务是判断输入的两个句子是否为连续的。
- BertForSequenceClassification: 用于序列分类任务,如情感分类、文本分类等。可以将BERT模型的输出进行分类。
- BertForTokenClassification: 用于序列标注任务,如命名实体识别(NER)、词性标注等。可以将BERT模型的输出进行标注。
- BertForQuestionAnswering: 用于问答任务,可以从文本中找到答案的起始和结束位置。
其实2-7都是BertModel + 一些线性层等
最常见的做法
利用BertModel获得隐藏状态,然后 线性层 + 激活层,获得分类结果
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 上周热点回顾(3.3-3.9)
· AI 智能体引爆开源社区「GitHub 热点速览」