摘要:参考:pytorch教程之nn.Module类详解——使用Module类来自定义模型 pytorch中对于一般的序列模型,直接使用torch.nn.Sequential类及可以实现,这点类似于keras,但是更多的时候面对复杂的模型,比如:多输入多输出、多分支模型、跨层连接模型、带有自定义层的模型等
阅读全文
摘要:参考:PyTorch官方教程中文版 一、 PyTorch 安装 有些说明比较复杂,主要是国内网络限制,所以最好外网环境下安装哦,安装可以参考“PyTorch在Windows下的安装”这篇说明。对于我的安装是用的下面命令。 pip install torch==1.7.0+cpu torchvisio
阅读全文
摘要:参考1:如何理解动态规划? 参考2:B站视频比较详细 参考3:详解动态规划算法 一、动态规划总结【参考3】 动态规划是用来解决最优问题(也可以用来求方案数)的一种方法,或者说是一种思想。而解决问题的过程,需要经历多个阶段,每一阶段都可以看成一个子问题,每个子问题都对应着一组状态。 使用动态规划一般会
阅读全文
摘要:参考: 哔哩哔哩 —— 06 最大熵模型 知乎 —— 最大熵模型-Max Entropy Model 刘建平 —— 最大熵模型原理小结
阅读全文
摘要:强烈推荐: 最通俗易懂的BiLSTM-CRF模型中的CRF层介绍 原文:CRF Layer on the Top of BiLSTM - 1 参考: 概率论09 期望 从全概率公式与贝叶斯公式原理讨论,引出贝叶斯估计理论及其具体应用 概率图模型(PGM):贝叶斯网(Bayesian network)
阅读全文
摘要:参考:[通俗理解]贝叶斯定理和隐马尔可夫模型 HMM学习最佳范例一:介绍 - 52nlp HMM学习最佳范例二:生成模式 - 52nlp 图解隐马尔可夫模型(HMM) 晴天会影响Bob的心情,happy或者grumpy。如何通过连续几天Bob的心情来判断这连续几天的天气情况。通过隐马尔可夫模型来计算
阅读全文
摘要:参考:状态转移:初识马尔科夫链 参考:小白都能看懂的马尔可夫链详解
阅读全文
摘要:条件概率 P(AB) = P(A)P(B|A) P(AB) = P(B)P(A|B) 乘法公式 P(ABC) = P(A)P(B|A)P(C|AB) 分成三步 P(A):A的概率 P(B|A):在A发生的情况下,B的概率 P(C|AB):在AB同时发生的情况下,C的概率 全概率公式 贝叶斯公式 先验
阅读全文
摘要:概率模型与条件概率 贝叶斯原理与推理 随机变量:联合概率 伯努利分布和二项式分布 多项式分布、伽玛分布和Beta分布 泊松分布、高斯分布、对数正态分布 贝叶斯概率解题实例 语言与智能:信息熵——演变和定义 语言与智能:交叉熵的定义 语言模型:语言概率 三元语言模型 马尔可夫链 隐马尔可夫模型 uni
阅读全文
摘要:参考:Deep Learning with Python P196 一、不用 Sequential 模型的解决方案:Keras 函数式 API 一个多输入模型 一个多输出(或多头)模型 1.1 函数式 API 简介 都是按照输入输出的模式,以下两种模式是一致的。 from keras.models
阅读全文
摘要:参考:Deep Learning with Python P188 参考:deep-learning-with-python-notebooks/6.4-sequence-processing-with-convnets.ipynb 目录: 理解序列数据的一维卷积 序列数据的一维池化 实现一维卷积神
阅读全文
摘要:目录: 一、单词和字符的 one-hot 编码 二、使用词嵌入 2.1 利用 Embedding 层学习词嵌入 2.2 使用预训练的词嵌入 三、理解循环神经网络 四、理解 LSTM 层和 GRU 层 五、循环神经网络的高级用法 5.1 循环 dropout(recurrent dropout) 5.
阅读全文
摘要:参考:Python深度学习 P89 目录 定义问题,收集数据集 选择衡量成功的指标 确定评估方法 准备数据 开发比基准更好的模型 扩大模型规模:开发过拟合的模型 模型正则化与调节超参数 一、定义问题,收集数据集 首先,你必须定义所面对的问题。 你的输入数据是什么?你要预测什么? 你面对的是什么类型的
阅读全文
摘要:获取更多的训练数据 减小网络的容量(层数,神经元数量) 添加权重正则化(l1 和 l2) 添加 dropout 添加正则化来防止 overfitting 一种常见的降低 overfitting 的方法就是强制让模型权重只能取较小的值,从而限制模型的复杂度,这使得权重值的分布更加规则(regular)
阅读全文
摘要:目录: 一、相关函数说明 imdb.load_data() numpy array 可以通过 list 将所有索引赋值 善用 enumerate 函数 通过 numpy.array 来对比两个列表相似性 标签为整数,用 sparse_categorical_crossentropy 损失函数 num
阅读全文
摘要:参考:Keras-递归层Recurrent官方说明 参考:Keras-Bidirectional包装器官方说明 LSTM(units=32, input_shape=(10, 64)) units=32:输出神经元个数 input_shape=(10, 64):输入数据形状,10 代表时间序列的长度
阅读全文
摘要:参考:Keras 实现 LSTM 参考:Keras-递归层Recurrent官方说明 参考:GitHub - Keras LSTM 参考:GitHub - Keras BiLSTM LSTM 是优秀的循环神经网络 (RNN) 结构,而 LSTM 在结构上也比较复杂,对 RNN 和 LSTM 还稍有疑
阅读全文
摘要:参考:李宏毅老师YouTube课程-ML Lecture 21-1: Recurrent Neural Network (Part I) 里面用鲜活的例子把复杂的关系剖析开了,通过不同的绘图模式更好理解。(2020年9月23日留) 参考:博客园引用的截图
阅读全文
摘要:参考:Keras - Python Deep Learning Neural Network API Keras With TensorFlow Prerequisites - Getting Started With Neural Networks TensorFlow And Keras GPU
阅读全文