会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
将者,智、信、仁、勇、严也。
Hi,我是李智华,华为-安全AI算法专家,欢迎来到安全攻防对抗的有趣世界。
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
7
8
9
10
11
12
13
14
15
···
273
下一页
2023年9月11日
pppay.exe恶意代码分析
摘要: 业界微步和vt沙箱样本分析: https://s.threatbook.com/report/file/376255ae3f745766ad2a3250c933467cdc3cff886b759bc3e1f656ddf4171433 https://www.virustotal.com/gui/fi
阅读全文
posted @ 2023-09-11 15:11 bonelee
阅读(103)
评论(0)
推荐(0)
2023年9月10日
机器学习算法原理实现——cart决策树:分类&回归
摘要: cart决策树示例: 本文目标,仿照sklearn写一个cart树,但是仅仅使用max_depth作为剪枝依据。 我们本次实现cart分类,因此用到gini指数: 为了帮助理解: 好了,理解了基尼指数。我们看下cart树的构建步骤: 注意还有几个细节: cart树每个treenode存储了哪些数据?
阅读全文
posted @ 2023-09-10 17:32 bonelee
阅读(512)
评论(0)
推荐(0)
机器学习算法原理实现——决策树里根据信息增益选择特征
摘要: 先说熵的定义: 再看信息增益 信息增益是一种用于特征选择的指标,用于衡量特征对于数据集分类的贡献程度。它基于信息熵的概念,通过比较特征划分前后的信息熵差异来评估特征的重要性。信息熵是衡量数据集纯度的指标,表示数据集中的不确定性或混乱程度。信息熵越高,数据集的不确定性越大。 上述例子计算错误,gpt识
阅读全文
posted @ 2023-09-10 11:39 bonelee
阅读(364)
评论(0)
推荐(0)
机器学习算法原理实现——k近邻算法 KNN
摘要: K近邻算法是一种基于距离度量的数据分类模型,其基本做法是首先确定输入实例的[插图]个最近邻实例,然后利用这[插图]个训练实例的多数所属的类别来预测新的输入实例所属类别。 k最近邻(k-nearest neighbors,KNN)算法是一种基本的分类和回归算法。其基本原理如下:1. 训练阶段:将训练样
阅读全文
posted @ 2023-09-10 00:00 bonelee
阅读(117)
评论(0)
推荐(0)
2023年9月9日
GPT大模型帮助我们理解拉格朗日乘子法——拉格朗日乘子法背后的直觉和依据是基于梯度的性质
摘要: 什么是拉格朗日乘子法?如何通俗理解基本原理呢?再举一个通俗的例子吧? 拉格朗日乘子法是数学中的一种方法,用于求解受约束的优化问题。当我们要在某些限制或约束条件下寻找函数的最大值或最小值时,拉格朗日乘子法就显得非常有用了。 通俗来说,你可以将它想象成在一张地图上找最高点或最低点,但是你只能在某些特定路
阅读全文
posted @ 2023-09-09 12:25 bonelee
阅读(104)
评论(0)
推荐(0)
机器学习算法原理实现——线性判别分析LDA
摘要: 介绍 线性判别分析(Linear Discriminant Analysis, LDA)是一种有监督式的数据降维方法,是在机器学习和数据挖掘中一种广泛使用的经典算法。LDA的希望将带上标签的数据(点),通过投影的方法,投影到维度更低的空间中,使得投影后的点,按类别区分成一簇一簇的情况,并且相同类别的
阅读全文
posted @ 2023-09-09 12:12 bonelee
阅读(498)
评论(0)
推荐(0)
GPT教我回忆学习大学里的协方差矩阵——太厉害了,让我迅速认识了协方差内在本质
摘要: 具体例子:
阅读全文
posted @ 2023-09-09 01:07 bonelee
阅读(42)
评论(0)
推荐(0)
2023年9月8日
机器学习算法原理实现——使用梯度下降求解Lasso回归和岭回归
摘要: 本文本质上是在线性回归的基础上进行扩展,加入了正则化而已! 机器学习算法原理实现——使用梯度下降求解线性回归 正则化在机器学习中是一种防止过拟合的技术,它通过在损失函数中添加一个惩罚项来限制模型的复杂度。举一个实际的例子,假设你正在训练一个机器学习模型来预测房价。你有很多特征,如房间数量、地理位置、
阅读全文
posted @ 2023-09-08 11:33 bonelee
阅读(1573)
评论(0)
推荐(0)
2023年9月7日
机器学习算法原理实现——使用交叉熵、梯度下降求解逻辑回归
摘要: 交叉熵的定义以及和熵的区别? 交叉熵是衡量两个概率分布之间的差异的一个度量。在机器学习和深度学习中,尤其是分类问题,交叉熵常被用作损失函数。交叉熵度量的是实际分布(标签)与模型预测之间的不一致程度。 这个值越小,模型的预测与真实分布越接近。完美的预测会有交叉熵为0,这是因为模型的预测概率分布与真实概
阅读全文
posted @ 2023-09-07 19:38 bonelee
阅读(599)
评论(0)
推荐(0)
2023年9月6日
机器学习算法原理实现——使用梯度下降求解线性回归
摘要: 什么是梯度下降? 机器学习算法都需要最大化或最小化一个函数,这个函数被称为"目标函数",其中我们一般把最小化的一类函数,称为"损失函数"。它能根据预测结果,衡量出模型预测能力的好坏。在求损失函数最小化的过程中使用梯度下降法。 ��(�)�� 在直线方程中,导数代表斜率,在曲线方程中,导数代表
阅读全文
posted @ 2023-09-06 19:58 bonelee
阅读(576)
评论(0)
推荐(0)
上一页
1
···
7
8
9
10
11
12
13
14
15
···
273
下一页
公告