随笔分类 - 机器学习
摘要:RCNN (Region-based Convolutional Neural Networks)是将CNN引入目标检测的开山之作, 大大提高了目标检测效果。 RCNN 算法介绍 R-CNN是一种最先进的视觉目标检测系统,它将自底向上的区域提议与卷积神经网络计算的丰富特征相结合。在发布时,R-CNN
阅读全文
摘要:本文介绍支持向量机SVM(Support Vector Machine) 参考: https://zhuanlan.zhihu.com/p/49331510 https://zhuanlan.zhihu.com/p/77750026 https://blog.csdn.net/Jon_Sheng/a
阅读全文
摘要:参考: https://blog.csdn.net/weixin_47547146/article/details/118680875 https://zhuanlan.zhihu.com/p/104355127 https://www.jianshu.com/p/19976de06ac7 http
阅读全文
摘要:霍夫森林算法是一种利用霍夫空间投票识别图片或点云目标的算法,算法设计参考了随机森林,是一种bagging的机器学习算法。 我们经常在图片识别的视频中看到将视频中的目标物识别出来,并进行分类。而如何准确地从背景中提取我们需要的目标物,霍夫森林便是研究这一问题的一种算法。 参考文献: Hough For
阅读全文
摘要:本文参考:https://zhuanlan.zhihu.com/p/24810318 什么是Batch Normalization Normalization的局限性 上篇博客说道Normalization让数据落到制定区间。 在神经网络中, 数据分布对训练会产生影响. 比如某个神经元 x 的值为1
阅读全文
摘要:在ML中Standardization, Regularization, Normalization是需要经常用到的概念。本文介绍三者的不同。 ## 核心区别 - Standardization和Normalization是数据预处理技术,而Regularization是用来提高模型性能的 - -
阅读全文
摘要:本文参考自:Kaggle 数据亦来源该页 样本中的数据缺失是ML界非常常见的问题,本文就这问题进行讨论。 使用 MissingNo 查看数据 import pandas as pd import numpy as np import tensorflow as tfimport missingno
阅读全文
摘要:本章介绍Keras.loss,损失函数 从功能上分,可以分为以下三类: Probabilistic losses,主要用于分类 Regression losses, 用于回归问题 Hinge losses, 又称"maximum-margin"分类,主要用作svm,最大化分割超平面的距离 损失函数的
阅读全文
摘要:本文介绍tf.Keras中最常用的模型结构Sequential模型,并分享一个Sequential模型实例 Sequential 模型 Sequential模型是Keras中最常用的模型,是一个线性、顺序的模型。 特点是模型的每一层都拥有一个唯一的输入tensor和输出tensor。 构建一个Seq
阅读全文
摘要:本章介绍如何利用TF中的Module和Layer构建模型Model。 Model在TF中的定义: 可以用来计算Tensor的函数(前向传递) 含有一些可以用于训练的变量 Module 大多数模型可以视为Layer的集合,在TensorFlow中常用的Keras和Sonnet,都基于tf.Module
阅读全文
摘要:Graph tf.graph在TensorFlow中主要用于性能优化。我们用TensorFlow写代码时可以通过python的内部机制进行计算,这种操作称为Eagerly。而Graph操作会运用TensorFlow所内含的数据计算模块,相比之下更有效率。 Graph是用于tf.Operation操作
阅读全文
摘要:sklearn.compose.ColumnTransformer可以用来构建一个数据转换器,用允许单独转换输入的不同列或列子集,并且每个转换器生成的特征将串联起来以形成单个特征空间。这对于异构或列式数据非常有用,可以将多个特征提取机制或转换组合到单个转换器中。 配合sklearn.pipeline
阅读全文
摘要:本章学习TensorFlow中的自动微分: https://tensorflow.google.cn/guide/autodiff 自动微分的含义 参考: https://zhuanlan.zhihu.com/p/61103504 https://en.wikipedia.org/wiki/Auto
阅读全文
摘要:Tensor和Variable都是TensorFlow框架中的基本数据单元,本文详细介绍两者的用法。 参考: https://tensorflow.google.cn/guide/tensor https://tensorflow.google.cn/guide/variable Tensor 基础
阅读全文
摘要:开始学习TensorFlow:https://www.tensorflow.org/tutorials TensorFlow的官网上有Tutorial和Guide两部分教程,Guide主要介绍一些概念性的东西,Tutorial则更加通过实例来介绍TensorFlow的使用。 本篇介绍TensorFl
阅读全文
摘要:本文介绍MLP(Multi-Layer Perception的理论以及实践) 参考: https://zhuanlan.zhihu.com/p/63184325 https://en.wikipedia.org/wiki/Multilayer_perceptron 一. 理论 MLP是最基本的神经网
阅读全文
摘要:本文介绍一些模型中常用的评价模型准确性的指标 参考: Various ways to evaluate a machine learning model’s performance Evaluation Criteria for Machine Learning Models 本文针对回归问题和分类
阅读全文
摘要:LightGBM是微软旗下的Boost学习算法,在Xgboost的基础上做了更多方面的优化。 理论 此部分主要介绍LightGBM做了哪些优化,此部分参考:https://zhuanlan.zhihu.com/p/99069186: 为了避免XGBoost的缺陷,并且能够在不损害准确率的条件下加快G
阅读全文
摘要:XGBoost是一种基于Boost算法的机器学习方法,全称EXtreme Gradient Boosting。 XGBoost在GBDT的基础上,引入了: CART回归树 正则项 泰勒公式二阶导数 Blocks数据结构(用于加速运算) 从而实现了比GBDT更好的实现效果。 一. 理论 关于XGBoo
阅读全文
摘要:本文将介绍机器学习中比较基础的两种Boost方法 — AdaBoost 和 GBDT AdaBoost 简介 Boosting, 也称为增强学习或提升法,是一种重要的集成学习技术, 能够将预测精度仅比随机猜度略高的弱学习器增强为预测精度高的强学习器,这在直接构造强学习器非常困难的情况下,为学习算法的
阅读全文