摘要: 图像增强工具 学习总结 CONTENT | data augmentations | link | description | | : : | : : | : : | | "CenterCrop" | "查看结果" | 中心剪裁 | | "Crop" | "查看结果" | 指定位置剪裁 | | "C 阅读全文
posted @ 2020-04-13 21:32 hou永胜 阅读(11736) 评论(0) 推荐(0) 编辑
摘要: 1. 网格搜索调参 参考博客: "Using Grid Search to Optimise CatBoost Parameters" 2. Bayesian方法调参: 3. 查看参数的importance python fea_df = pd.DataFrame() fea_df['feature 阅读全文
posted @ 2020-04-09 09:55 hou永胜 阅读(1821) 评论(0) 推荐(0) 编辑
摘要: 文本情感分类 "1.文本情感分类数据集" "2.使用循环神经网络进行情感分类" "3.使用卷积神经网络进行情感分类" 1.文本情感分类数据 在本中,将应用预训练的词向量和含多个隐藏层的双向循环神经网络与卷积神经网络,来判断一段不定长的文本序列中包含的是正面还是负面的情绪。 使用 "斯坦福的IMDb数 阅读全文
posted @ 2020-02-21 22:26 hou永胜 阅读(2787) 评论(0) 推荐(2) 编辑
摘要: 文本嵌入预训练模型Glove "1.词嵌入预训练模型" "2.Glove" "3.求近义词和类比词" 1.文本嵌入预训练模型 虽然 Word2Vec 已经能够成功地将离散的单词转换为连续的词向量,并能一定程度上地保存词与词之间的近似关系,但 Word2Vec 模型仍不是完美的,它还可以被进一步地改进 阅读全文
posted @ 2020-02-21 21:22 hou永胜 阅读(3486) 评论(0) 推荐(0) 编辑
摘要: Word2vec "1.词嵌入基础" "2.PTB数据集" "3.Skip Gram" "4.负采样近似" "5.训练模型" 1.词嵌入基础 使用 one hot 向量表示单词,虽然它们构造起来很容易,但通常并不是一个好选择。一个主要的原因是,one hot 词向量无法准确表达不同词之间的相似度,如 阅读全文
posted @ 2020-02-21 19:28 hou永胜 阅读(1554) 评论(0) 推荐(0) 编辑
摘要: 迁移学习 "1.基本概念" "2.Fine tuning" "3.Fixed" 1.基本概念 假设我们想从图像中识别出不同种类的椅子,然后将购买链接推荐给用户。一种可能的方法是先找出100种常见的椅子,为每种椅子拍摄1,000张不同角度的图像,然后在收集到的图像数据集上训练一个分类模型。这个椅子数据 阅读全文
posted @ 2020-02-21 12:07 hou永胜 阅读(221) 评论(0) 推荐(0) 编辑
摘要: 数据增强 "1.基本概念" "2.常用增强方法" "3.叠加使用" 1.基本概念 图像增广(image augmentation)技术通过对训练图像做一系列随机改变,来产生相似但又不同的训练样本,从而扩大训练数据集的规模。图像增广的另一种解释是,随机改变训练样本可以降低模型对某些属性的依赖,从而提高 阅读全文
posted @ 2020-02-21 11:15 hou永胜 阅读(1000) 评论(0) 推荐(0) 编辑
摘要: 优化算法 "1.Momentum" "2.AdaGrad" "3.RMSProp" "4.AdaDelta" "5.Adam" 1.Momentum 目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中, 阅读全文
posted @ 2020-02-21 09:58 hou永胜 阅读(761) 评论(0) 推荐(0) 编辑
摘要: 梯度下降 ( "Boyd & Vandenberghe, 2004" ) 一维梯度下降 证明:沿梯度反方向移动自变量可以减小函数值 泰勒展开: $$ f(x+\epsilon)=f(x)+\epsilon f^{\prime}(x)+\mathcal{O}\left(\epsilon^{2}\rig 阅读全文
posted @ 2020-02-20 17:30 hou永胜 阅读(567) 评论(0) 推荐(0) 编辑
摘要: 优化与深度学习 优化与估计 尽管优化方法可以最小化深度学习中的损失函数值,但本质上优化方法达到的目标与深度学习的目标并不相同。 优化方法目标:训练集损失函数值 深度学习目标:测试集损失函数值(泛化性) 优化在深度学习中的挑战 1. 局部最小值 2. 鞍点 3. 梯度消失 局部最小值 $$ f(x) 阅读全文
posted @ 2020-02-20 15:33 hou永胜 阅读(336) 评论(0) 推荐(0) 编辑