06 2022 档案
摘要:本文参考:https://zhuanlan.zhihu.com/p/24810318 什么是Batch Normalization Normalization的局限性 上篇博客说道Normalization让数据落到制定区间。 在神经网络中, 数据分布对训练会产生影响. 比如某个神经元 x 的值为1
阅读全文
摘要:在ML中Standardization, Regularization, Normalization是需要经常用到的概念。本文介绍三者的不同。 ## 核心区别 - Standardization和Normalization是数据预处理技术,而Regularization是用来提高模型性能的 - -
阅读全文
摘要:本文参考自:Kaggle 数据亦来源该页 样本中的数据缺失是ML界非常常见的问题,本文就这问题进行讨论。 使用 MissingNo 查看数据 import pandas as pd import numpy as np import tensorflow as tfimport missingno
阅读全文
摘要:本章介绍Keras.loss,损失函数 从功能上分,可以分为以下三类: Probabilistic losses,主要用于分类 Regression losses, 用于回归问题 Hinge losses, 又称"maximum-margin"分类,主要用作svm,最大化分割超平面的距离 损失函数的
阅读全文