模型之 BERT & Transformer

模型之 BERT & Transformer

1. BERT

BERT: Bidirectional Encoder Representation from Transformers

论文地址[2019]:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

对应github代码:github-bert

BERT分为 两个阶段:

  • Pre-training:利用无标记语料预训练模型
  • Fine-tuning: 使用预训练的模型,对已经标记的语料根据实际的任务进行训练

https://harmonyhu.com/2021/04/21/BERT/

2. Transformer

论文地址[2017]:Attention Is All You Need

核心运算:Attention(Q,K,V)=softmax(QKTdk√)V

描述:查询(Query)到键值(Key-Value)的映射

https://harmonyhu.com/2021/04/10/transformer/

posted @   michaelchengjl  阅读(8)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 展开说说关于C#中ORM框架的用法!
历史上的今天:
2019-12-31 Ubuntu18.04 解决umount: /mnt: device is busy
点击右上角即可分享
微信分享提示