GPT——生成式预训练Transformer

GPT最近很火呀,那什么是GPT呢?

  机器学习领域有个很好的模型叫  Transformer注意力模型,然后在此基础上发展出了包括GPT、BERT、GPT2.0以及GPT3.0等等。其发展历程大概是:

(1)2018年,OpenAI基于Transformer提出了GPT;

(2)2018年,Google推出了GPT的升级版BERT;

(3)2019年,OpenAI推出了GPT的升级版GPT2.0。

  GPT对Transformer进行了一些改进,GPT只能从左到右,或者从右到左扫描输入数据,因此被称为“单向模型”。GPT采用的一个策略是“预训练+微调”。预训练的GPT中,存储了从语料中学习到的语义和语法信息。

posted @   浪矢-CL  阅读(75)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 如何调用 DeepSeek 的自然语言处理 API 接口并集成到在线客服系统
· 【译】Visual Studio 中新的强大生产力特性
· 2025年我用 Compose 写了一个 Todo App
点击右上角即可分享
微信分享提示