摘要: import numpy as np def blahut_arimoto(p_y_x: np.ndarray, log_base: float = 2, thresh: float = 1e-12, max_iter: int = 1e3) -> tuple: ''' Maximize the c 阅读全文
posted @ 2019-11-09 17:03 不学无墅_NKer 阅读(2126) 评论(0) 推荐(0) 编辑
摘要: 算术编码例题: 假设信源信号有{A, B, C, D}四个,他们的概率分别为{0.1, 0.4, 0.2, 0.3},如果我们要对CADACDB这个信号进行编码,那么应该怎样进行呢? 准备工作完成之后,我们便可以开始进行编码了。 那么我们首先读入信号:C——因为C在最初始的间隔中是[0.5, 0.7 阅读全文
posted @ 2019-11-02 21:38 不学无墅_NKer 阅读(14342) 评论(0) 推荐(1) 编辑
摘要: 主要内容: XGBoost算法的介绍 XGBoost算法的损失函数 XGBoost函数介绍 算法的应用实战——信用卡欺诈行为的识别 1.XGBoost算法的介绍 XGBoost是由传统的GBDT模型发展而来的,GBDT模型在求解最优化问题时应用了一阶导技术,而XGBoost则使用损失函数的一阶和二阶 阅读全文
posted @ 2019-11-01 19:35 不学无墅_NKer 阅读(596) 评论(0) 推荐(0) 编辑
摘要: 主要内容: 非平衡数据的特征 SMOTE算法的思想及步骤 SMOTE算法的手工案例 SMOTE算法的函数介绍 1.非平衡数据的特征 在实际应用中,类别型的因变量可能存在严重的偏倚,即类别之间的比例严重失调。如欺诈问题中,欺诈类观测在样本集中毕竟占少数;客户流失问题中,忠实的客户往往也是占很少一部分; 阅读全文
posted @ 2019-10-31 20:45 不学无墅_NKer 阅读(1787) 评论(0) 推荐(0) 编辑
摘要: 主要内容: 1.梯度提升决策树(GBDT)原理 1.1模型介绍 2.GBDT算法步骤 2.1GBDT算法在分类问题上的操作步骤 2.2GBDT算法在预测问题上的操作步骤 2.3GBDT函数介绍 3.GBDT示例 4.GBDT特点及应用 5.GBDT算法的应用——信用卡是否违约的识别 1.梯度提升决策 阅读全文
posted @ 2019-10-31 20:17 不学无墅_NKer 阅读(1125) 评论(0) 推荐(0) 编辑
摘要: 主要内容: 1.模型介绍 提升树算法与线性回归模型的思想类似,所不同的是该算法实现了多棵基础决策树𝑓(𝑥)的加权运算,最具代表的提升树为AdaBoost算法,即 2.损失函数的介绍 对于Adaboost算法而言,每一棵基础决策树都是基于前一棵基础决策树的分类结果对样本点设置不同的权重,如果在前一 阅读全文
posted @ 2019-10-31 19:58 不学无墅_NKer 阅读(438) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-10-30 19:17 不学无墅_NKer 阅读(193) 评论(0) 推荐(0) 编辑
摘要: 版本二:对某个文件夹下的excel文件循环操作 阅读全文
posted @ 2019-10-29 20:28 不学无墅_NKer 阅读(560) 评论(0) 推荐(0) 编辑
摘要: 相关博客 一、FISTA的由来:从梯度下降法到ISTA & FISTA 二、压缩感知重构算法之迭代软阈值(IST)推导过程 三、ISTA重构图像 相关论文 ISTA的推导过程以及软阈值的推导 [1] Zhang Z , Xu Y , Yang J , et al. A Survey of Spars 阅读全文
posted @ 2019-10-29 10:35 不学无墅_NKer 阅读(782) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-10-23 20:08 不学无墅_NKer 阅读(766) 评论(0) 推荐(0) 编辑