摘要: 参考博客 https://wmathor.com/index.php/archives/1456/ https://blog.csdn.net/sunhua93/article/details/102764783,非常详细 预训练模型 用巨大的数据来训练一个泛化能力很强的模型,当我们需要在特定场景使 阅读全文
posted @ 2021-07-28 23:30 永远是个小孩子 阅读(891) 评论(0) 推荐(0) 编辑
摘要: 参考博客 https://wmathor.com/index.php/archives/1438/,大佬讲的非常清晰!!!博客排版也非常值得学习。 https://zhuanlan.zhihu.com/p/85612521,Transformer三部曲,也解释了attention机制 http:// 阅读全文
posted @ 2021-07-28 22:29 永远是个小孩子 阅读(3746) 评论(0) 推荐(0) 编辑
摘要: 参考博客 https://zybuluo.com/hanbingtao/note/581764,LSTM的超详细解释 https://blog.csdn.net/qq_36696494/article/details/89028956,RNN、LSTM一起的详解,例子很详细。 长短时记忆网络(LST 阅读全文
posted @ 2021-07-28 20:42 永远是个小孩子 阅读(1101) 评论(0) 推荐(0) 编辑
摘要: 参考博客 https://zybuluo.com/hanbingtao/note/541458 语言模型 语言模型:语言模型是对一种语言的特征进行建模,例如给定一个一句话前面的部分,预测接下来最有可能的一个词是什么。让神经网络输出概率:softmax层作为输出层。 N-Gram:假设一个词出现的概率 阅读全文
posted @ 2021-07-28 18:00 永远是个小孩子 阅读(886) 评论(0) 推荐(0) 编辑
摘要: 参考博客 https://www.zybuluo.com/hanbingtao/note/485480 卷积神经网络 卷积神经网络(Convolutional Neural Network, CNN),示例图如下: 一个CNN由卷积层、池化层(pooling)和全连接层组成。它的常用架构模式是前面是 阅读全文
posted @ 2021-07-28 16:53 永远是个小孩子 阅读(687) 评论(0) 推荐(0) 编辑
摘要: 参考博客 https://www.zybuluo.com/hanbingtao/note/433855,零基础入门,讲的非常详细易懂 https://blog.csdn.net/qq_38150441/article/details/80533891,随机梯度下降 https://zhuanlan. 阅读全文
posted @ 2021-07-28 00:00 永远是个小孩子 阅读(547) 评论(0) 推荐(0) 编辑