Bert模型
Bert模型具有两个预训练任务,分别是 Masked LM 和 Next Sentence Prediction。
BERT 的第一个预训练任务是 Masked LM,在句子中随机遮盖一部分单词,然后同时利用上下文的信息预测遮盖的单词,这样可以更好地根据全文理解单词的意思。第二个预训练任务是Next Sentence Prediction,下一句预测任务,这个任务主要是让模型能够更好地理解句子间的关系。比如在智能问答系统里需要理解两个句子的关系,这个预训练任务对智能问答能够起到很好的效果,我觉得在一些并不需要理解上下文关系的任务中就没有必要使用这个预训练任务。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
· 【杂谈】分布式事务——高大上的无用知识?
2021-11-13 Batch Normalization
2021-11-13 归一化
2019-11-13 随堂测试——数据清洗