摘要: Batch Normalization; Layer Normalizaiton; Instance Normalization; Group Normalization; Switchable Normalization。 why normalization? 神经网络学习过程的本质就是为了学习数 阅读全文
posted @ 2020-07-09 20:07 Ariel_一只猫的旅行 阅读(3294) 评论(0) 推荐(0) 编辑
摘要: 插值,它根据已知的数据序列(也可以理解为坐标中一连串离散的点),找到其中的规律;然后根据找到的这个规律,来对其中尚未有数据记录的点进行数值估计。 1)它可以对数据中的缺失进行合理的补偿;2)可以对数据进行放大或者缩小。 线性插值是一种针对一维数据的插值方法,它根据一维数据序列中需要插值的点的左右邻近 阅读全文
posted @ 2020-07-09 19:49 Ariel_一只猫的旅行 阅读(1013) 评论(0) 推荐(0) 编辑