摘要: VAE(Variational Autoencoder) 的原理 我们可以对编码器添加约束,就是强迫它产生服从单位高斯分布的潜在变量。正式这种约束,把 VAE 和标准自编码器给区分开来了。 现在,产生新的图片也变得容易:我们只要从单位高斯分布中进行采样,然后把它传给解码器就可以了。 对于我们的损失函 阅读全文
posted @ 2020-06-16 22:04 别再闹了 阅读(728) 评论(0) 推荐(0) 编辑
摘要: 深度学习中Dropout原理解析 目录: Dropout 简介 1.1 Dropout 出现的原因 1.2 什么是 Dropout \2. Dropout 工作流程及使用 2.1 Dropout 具体工作流程 2.2 Dropout 在神经网络中的使用 \3. 为什么说 Dropout 可以解决过拟 阅读全文
posted @ 2020-06-16 21:44 别再闹了 阅读(455) 评论(0) 推荐(0) 编辑
摘要: 拉普拉斯特征映射(Laplacian Eigenmaps) 1、介绍 拉普拉斯特征映射(Laplacian Eigenmaps)是一种不太常见的降维算法,它看问题的角度和常见的降维算法不太相同,是从局部的角度去构建数据之间的关系。也许这样讲有些抽象,具体来讲,拉普拉斯特征映射是一种基于图的降维算法, 阅读全文
posted @ 2020-06-16 21:07 别再闹了 阅读(2220) 评论(0) 推荐(0) 编辑
摘要: 之前计算机网络实验课有个小项目,放到Github了,今天偶然看到感觉还是往博客搬运下。 具体来说就是一个可以多人即时通讯、传文件的桌面端软件以及对应的服务器端软件,客户端的GUI是用Java FX写的(GUI没太多时间美化,只能说功能上没问题),用到的主要技术是Java socket.其还实现了双侧 阅读全文
posted @ 2020-06-16 20:50 别再闹了 阅读(644) 评论(0) 推荐(0) 编辑
摘要: 快速傅里叶变换 快速傅里叶变换 (fast Fourier transform), 即利用计算机计算离散傅里叶变换(DFT)的高效、快速计算方法的统称,简称FFT。快速傅里叶变换是1965年由J.W.库利和T.W.图基提出的。采用这种算法能使计算机计算离散傅里叶变换所需要的乘法次数大为减少,特别是被 阅读全文
posted @ 2020-06-16 19:01 别再闹了 阅读(925) 评论(0) 推荐(0) 编辑
摘要: [校招 - 基础算法]GBDT/XGBoost 常见问题 在非深度学习的机器学习模型中,基于 GBDT 算法的 XGBoost、lightgbm 等有着非常优秀的性能,校招算法岗面试中 “出镜率” 非常高。这方面的资料非常多,因此本文不是原创,参考了很多面经、解读文章等,对 GBDT 相关的问题做了 阅读全文
posted @ 2020-06-16 18:33 别再闹了 阅读(746) 评论(0) 推荐(0) 编辑
摘要: xgboost学习 https://www.bilibili.com/video/av95103384 构建多个学习器,然后通过一定策略结合把它们来完成学习任务的,常常可以获得比单一学习显著优越的学习器。 集成算法一般分为三类:Bagging,Boosting,Stacking(我们可以把它简单地看 阅读全文
posted @ 2020-06-16 18:18 别再闹了 阅读(69) 评论(0) 推荐(0) 编辑
摘要: 模型对缺失值的处理 首先从两个角度解释你的困惑: 工具包自动处理数据缺失不代表具体的算法可以处理缺失项 对于有缺失的数据:以决策树为原型的模型优于依赖距离度量的模型 回答中也会介绍树模型,如随机森林 (Random Forest) 和 xgboost 如何处理缺失值。文章最后总结了在有缺失值时选择模 阅读全文
posted @ 2020-06-16 17:20 别再闹了 阅读(970) 评论(0) 推荐(0) 编辑
摘要: 【机器学习】贝叶斯整理 简述朴素贝叶斯算法原理和工作流程 事件 A 和 B 同时发生的概率为在 A 发生的情况下发生 B 或者在 B 发生的情况下发生 A。 所以有: 对于给出的待分类项,求解在此项出现的条件下各个目标类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。 工作原理: 假设现在有样 阅读全文
posted @ 2020-06-16 17:11 别再闹了 阅读(745) 评论(0) 推荐(1) 编辑
摘要: PyTorch中在反向传播前为什么要手动将梯度清零? 作者:Pascal 链接:https://www.zhihu.com/question/303070254/answer/573037166 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 这种模式可以让梯度玩出 阅读全文
posted @ 2020-06-16 01:44 别再闹了 阅读(546) 评论(0) 推荐(0) 编辑
摘要: 为什么多层的卷积神经网络训练时不用深度学习方法训练,难道误差、梯度不会逐层扩散和消失? 多层的神经网络在解决复杂问题时,如果使用反向传播算法效果会很不理想,有专家说是因为梯度在逐层扩散和消失,那么,为什么多层的卷积神经网络不会出现这类问题,现在卷积神经网络的训练都是误差反向传播的,不影响?为什么? 阅读全文
posted @ 2020-06-16 01:38 别再闹了 阅读(134) 评论(0) 推荐(0) 编辑
摘要: 深度学习 | 三个概念:Epoch, Batch, Iteration 在训练神经网络的时候,我们难免会看到 Batch、Epoch 和 Iteration 这几个概念。曾对这几个概念感到模糊,看了网上的一些文章后,在这里做几个小小的总结。 👉如有错误之处,还望指出。 名词解释: 【 图片来源:h 阅读全文
posted @ 2020-06-16 01:33 别再闹了 阅读(974) 评论(0) 推荐(0) 编辑