06 2022 档案

摘要:本文参考:https://zhuanlan.zhihu.com/p/24810318 什么是Batch Normalization Normalization的局限性 上篇博客说道Normalization让数据落到制定区间。 在神经网络中, 数据分布对训练会产生影响. 比如某个神经元 x 的值为1 阅读全文
posted @ 2022-06-20 20:40 Asp1rant 阅读(42) 评论(0) 推荐(0) 编辑
摘要:在ML中Standardization, Regularization, Normalization是需要经常用到的概念。本文介绍三者的不同。 ## 核心区别 - Standardization和Normalization是数据预处理技术,而Regularization是用来提高模型性能的 - - 阅读全文
posted @ 2022-06-15 20:30 Asp1rant 阅读(786) 评论(0) 推荐(0) 编辑
摘要:本文参考自:Kaggle 数据亦来源该页 样本中的数据缺失是ML界非常常见的问题,本文就这问题进行讨论。 使用 MissingNo 查看数据 import pandas as pd import numpy as np import tensorflow as tfimport missingno 阅读全文
posted @ 2022-06-13 20:59 Asp1rant 阅读(488) 评论(0) 推荐(0) 编辑
摘要:本章介绍Keras.loss,损失函数 从功能上分,可以分为以下三类: Probabilistic losses,主要用于分类 Regression losses, 用于回归问题 Hinge losses, 又称"maximum-margin"分类,主要用作svm,最大化分割超平面的距离 损失函数的 阅读全文
posted @ 2022-06-03 21:55 Asp1rant 阅读(1893) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示