alex_bn_lee

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

随笔分类 -  AI Related

上一页 1 ··· 3 4 5 6 7 8 9 下一页

Artificial Intelligence Machine Learning Deep Learning NLP
【501】pytorch教程之nn.Module类详解
摘要:参考:pytorch教程之nn.Module类详解——使用Module类来自定义模型 pytorch中对于一般的序列模型,直接使用torch.nn.Sequential类及可以实现,这点类似于keras,但是更多的时候面对复杂的模型,比如:多输入多输出、多分支模型、跨层连接模型、带有自定义层的模型等 阅读全文

posted @ 2020-12-06 14:25 McDelfino 阅读(3068) 评论(0) 推荐(1) 编辑

【499】PyTorch 相关
摘要:参考:PyTorch官方教程中文版 一、 PyTorch 安装 有些说明比较复杂,主要是国内网络限制,所以最好外网环境下安装哦,安装可以参考“PyTorch在Windows下的安装”这篇说明。对于我的安装是用的下面命令。 pip install torch==1.7.0+cpu torchvisio 阅读全文

posted @ 2020-11-27 09:18 McDelfino 阅读(172) 评论(0) 推荐(0) 编辑

【498】动态规划 —— Dynamic Programming
摘要:参考1:如何理解动态规划? 参考2:B站视频比较详细 参考3:详解动态规划算法 一、动态规划总结【参考3】 动态规划是用来解决最优问题(也可以用来求方案数)的一种方法,或者说是一种思想。而解决问题的过程,需要经历多个阶段,每一阶段都可以看成一个子问题,每个子问题都对应着一组状态。 使用动态规划一般会 阅读全文

posted @ 2020-11-25 21:22 McDelfino 阅读(120) 评论(0) 推荐(0) 编辑

【495】最大熵模型
摘要:参考: 哔哩哔哩 —— 06 最大熵模型 知乎 —— 最大熵模型-Max Entropy Model 刘建平 —— 最大熵模型原理小结 阅读全文

posted @ 2020-10-27 00:47 McDelfino 阅读(182) 评论(0) 推荐(0) 编辑

【494】条件随机场,crf
摘要:强烈推荐: 最通俗易懂的BiLSTM-CRF模型中的CRF层介绍 原文:CRF Layer on the Top of BiLSTM - 1 参考: 概率论09 期望 从全概率公式与贝叶斯公式原理讨论,引出贝叶斯估计理论及其具体应用 概率图模型(PGM):贝叶斯网(Bayesian network) 阅读全文

posted @ 2020-10-26 16:36 McDelfino 阅读(95) 评论(0) 推荐(0) 编辑

【493】隐马尔可夫模型
摘要:参考:[通俗理解]贝叶斯定理和隐马尔可夫模型 HMM学习最佳范例一:介绍 - 52nlp HMM学习最佳范例二:生成模式 - 52nlp 图解隐马尔可夫模型(HMM) 晴天会影响Bob的心情,happy或者grumpy。如何通过连续几天Bob的心情来判断这连续几天的天气情况。通过隐马尔可夫模型来计算 阅读全文

posted @ 2020-10-20 14:43 McDelfino 阅读(255) 评论(0) 推荐(0) 编辑

【492】状态转移:初识马尔科夫链
摘要:参考:状态转移:初识马尔科夫链 参考:小白都能看懂的马尔可夫链详解 阅读全文

posted @ 2020-10-17 17:02 McDelfino 阅读(219) 评论(0) 推荐(0) 编辑

【491】概率论与数理统计——宋浩 笔记
摘要:条件概率 P(AB) = P(A)P(B|A) P(AB) = P(B)P(A|B) 乘法公式 P(ABC) = P(A)P(B|A)P(C|AB) 分成三步 P(A):A的概率 P(B|A):在A发生的情况下,B的概率 P(C|AB):在AB同时发生的情况下,C的概率 全概率公式 贝叶斯公式 先验 阅读全文

posted @ 2020-10-15 23:31 McDelfino 阅读(1349) 评论(0) 推荐(0) 编辑

【490】自然语言处理算法精讲——笔记
摘要:概率模型与条件概率 贝叶斯原理与推理 随机变量:联合概率 伯努利分布和二项式分布 多项式分布、伽玛分布和Beta分布 泊松分布、高斯分布、对数正态分布 贝叶斯概率解题实例 语言与智能:信息熵——演变和定义 语言与智能:交叉熵的定义 语言模型:语言概率 三元语言模型 马尔可夫链 隐马尔可夫模型 uni 阅读全文

posted @ 2020-10-14 14:02 McDelfino 阅读(166) 评论(0) 推荐(0) 编辑

【489】高级的深度学习最佳实践
摘要:参考:Deep Learning with Python P196 一、不用 Sequential 模型的解决方案:Keras 函数式 API 一个多输入模型 一个多输出(或多头)模型 1.1 函数式 API 简介 都是按照输入输出的模式,以下两种模式是一致的。 from keras.models 阅读全文

posted @ 2020-10-02 20:51 McDelfino 阅读(259) 评论(0) 推荐(0) 编辑

【488】用卷积神经网络处理序列
摘要:参考:Deep Learning with Python P188 参考:deep-learning-with-python-notebooks/6.4-sequence-processing-with-convnets.ipynb 目录: 理解序列数据的一维卷积 序列数据的一维池化 实现一维卷积神 阅读全文

posted @ 2020-10-01 17:07 McDelfino 阅读(171) 评论(0) 推荐(0) 编辑

【487】深度学习用于文本和序列
摘要:目录: 一、单词和字符的 one-hot 编码 二、使用词嵌入 2.1 利用 Embedding 层学习词嵌入 2.2 使用预训练的词嵌入 三、理解循环神经网络 四、理解 LSTM 层和 GRU 层 五、循环神经网络的高级用法 5.1 循环 dropout(recurrent dropout) 5. 阅读全文

posted @ 2020-10-01 16:39 McDelfino 阅读(555) 评论(0) 推荐(0) 编辑

【486】机器学习的通用工作流程
摘要:参考:Python深度学习 P89 目录 定义问题,收集数据集 选择衡量成功的指标 确定评估方法 准备数据 开发比基准更好的模型 扩大模型规模:开发过拟合的模型 模型正则化与调节超参数 一、定义问题,收集数据集 首先,你必须定义所面对的问题。 你的输入数据是什么?你要预测什么? 你面对的是什么类型的 阅读全文

posted @ 2020-09-27 17:00 McDelfino 阅读(166) 评论(0) 推荐(0) 编辑

【485】deep learning 防止 overfitting 的方法
摘要:获取更多的训练数据 减小网络的容量(层数,神经元数量) 添加权重正则化(l1 和 l2) 添加 dropout 添加正则化来防止 overfitting 一种常见的降低 overfitting 的方法就是强制让模型权重只能取较小的值,从而限制模型的复杂度,这使得权重值的分布更加规则(regular) 阅读全文

posted @ 2020-09-27 11:39 McDelfino 阅读(270) 评论(0) 推荐(0) 编辑

【484】Book - Deep Learning with Python 相关说明与代码
摘要:目录: 一、相关函数说明 imdb.load_data() numpy array 可以通过 list 将所有索引赋值 善用 enumerate 函数 通过 numpy.array 来对比两个列表相似性 标签为整数,用 sparse_categorical_crossentropy 损失函数 num 阅读全文

posted @ 2020-09-25 21:14 McDelfino 阅读(222) 评论(0) 推荐(0) 编辑

【483】Keras 中 LSTM 与 BiLSTM 语法
摘要:参考:Keras-递归层Recurrent官方说明 参考:Keras-Bidirectional包装器官方说明 LSTM(units=32, input_shape=(10, 64)) units=32:输出神经元个数 input_shape=(10, 64):输入数据形状,10 代表时间序列的长度 阅读全文

posted @ 2020-09-24 23:55 McDelfino 阅读(2775) 评论(0) 推荐(0) 编辑

【482】Keras 实现 LSTM & BiLSTM
摘要:参考:Keras 实现 LSTM 参考:Keras-递归层Recurrent官方说明 参考:GitHub - Keras LSTM 参考:GitHub - Keras BiLSTM LSTM 是优秀的循环神经网络 (RNN) 结构,而 LSTM 在结构上也比较复杂,对 RNN 和 LSTM 还稍有疑 阅读全文

posted @ 2020-09-24 22:16 McDelfino 阅读(5499) 评论(1) 推荐(0) 编辑

【481】全网讲RNN与LSTM最好的资料
摘要:参考:李宏毅老师YouTube课程-ML Lecture 21-1: Recurrent Neural Network (Part I) 里面用鲜活的例子把复杂的关系剖析开了,通过不同的绘图模式更好理解。(2020年9月23日留) 参考:博客园引用的截图 阅读全文

posted @ 2020-09-23 18:44 McDelfino 阅读(240) 评论(0) 推荐(0) 编辑

【480】Keras实操
摘要:参考:Keras - Python Deep Learning Neural Network API Keras With TensorFlow Prerequisites - Getting Started With Neural Networks TensorFlow And Keras GPU 阅读全文

posted @ 2020-09-22 13:53 McDelfino 阅读(111) 评论(0) 推荐(0) 编辑

【479】cross-entropy与softmax的求导
摘要:cross-entropy 损失函数 L=ln(pc)=ln(softmax(yc)) pc=softmax(yc)=eycey1+...+eyc+...+eyn 阅读全文

posted @ 2020-09-13 23:38 McDelfino 阅读(171) 评论(0) 推荐(0) 编辑

上一页 1 ··· 3 4 5 6 7 8 9 下一页
点击右上角即可分享
微信分享提示