上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 271 下一页
摘要: 介绍 线性判别分析(Linear Discriminant Analysis, LDA)是一种有监督式的数据降维方法,是在机器学习和数据挖掘中一种广泛使用的经典算法。LDA的希望将带上标签的数据(点),通过投影的方法,投影到维度更低的空间中,使得投影后的点,按类别区分成一簇一簇的情况,并且相同类别的 阅读全文
posted @ 2023-09-09 12:12 bonelee 阅读(206) 评论(0) 推荐(0) 编辑
摘要: 具体例子: 阅读全文
posted @ 2023-09-09 01:07 bonelee 阅读(21) 评论(0) 推荐(0) 编辑
摘要: 本文本质上是在线性回归的基础上进行扩展,加入了正则化而已! 机器学习算法原理实现——使用梯度下降求解线性回归 正则化在机器学习中是一种防止过拟合的技术,它通过在损失函数中添加一个惩罚项来限制模型的复杂度。举一个实际的例子,假设你正在训练一个机器学习模型来预测房价。你有很多特征,如房间数量、地理位置、 阅读全文
posted @ 2023-09-08 11:33 bonelee 阅读(1201) 评论(0) 推荐(0) 编辑
摘要: 交叉熵的定义以及和熵的区别? 交叉熵是衡量两个概率分布之间的差异的一个度量。在机器学习和深度学习中,尤其是分类问题,交叉熵常被用作损失函数。交叉熵度量的是实际分布(标签)与模型预测之间的不一致程度。 这个值越小,模型的预测与真实分布越接近。完美的预测会有交叉熵为0,这是因为模型的预测概率分布与真实概 阅读全文
posted @ 2023-09-07 19:38 bonelee 阅读(433) 评论(0) 推荐(0) 编辑
摘要: 什么是梯度下降? ​ 机器学习算法都需要最大化或最小化一个函数,这个函数被称为"目标函数",其中我们一般把最小化的一类函数,称为"损失函数"。它能根据预测结果,衡量出模型预测能力的好坏。在求损失函数最小化的过程中使用梯度下降法。 ​ ��(�)�� 在直线方程中,导数代表斜率,在曲线方程中,导数代表 阅读全文
posted @ 2023-09-06 19:58 bonelee 阅读(434) 评论(0) 推荐(0) 编辑
摘要: numpy.empty 函数用于创建一个指定形状和数据类型的新数组,但不填充任何值。这意味着它可以比其他创建数组的函数(如 numpy.zeros 或 numpy.ones)更快,因为它不需要花时间去初始化数组的值。但是,这也意味着数组的初始内容是随机的,取决于内存的状态。因此,除非你打算在创建数组 阅读全文
posted @ 2023-09-05 09:15 bonelee 阅读(85) 评论(0) 推荐(0) 编辑
摘要: 正则化在机器学习中是一种防止过拟合的技术,它通过在损失函数中添加一个惩罚项来限制模型的复杂度。举一个实际的例子,假设你正在训练一个机器学习模型来预测房价。你有很多特征,如房间数量、地理位置、建筑年份等。如果你的模型过于复杂,例如它尝试拟合每一个训练样本的细微差异,那么它可能在训练数据上表现得很好,但 阅读全文
posted @ 2023-09-04 17:37 bonelee 阅读(38) 评论(0) 推荐(0) 编辑
摘要: import numpy as np # 创建两个一维数组 a = np.array([1, 2, 3]) b = np.array([4, 5, 6]) # 使用numpy.c_将它们连接在一起 """ numpy.c_ 是一个方便的工具,用于沿第二轴连接数组。 它将数组转换为至少2-D,并将它们 阅读全文
posted @ 2023-09-04 10:04 bonelee 阅读(108) 评论(0) 推荐(0) 编辑
摘要: 代码: import pyshark def extract_dns_info(packet): dns = packet.dns query_name = dns.qry_name if hasattr(dns, 'qry_name') else None query_type = dns.qry 阅读全文
posted @ 2023-08-31 19:36 bonelee 阅读(763) 评论(0) 推荐(0) 编辑
摘要: https://s.threatbook.com/report/file/99eddc2794077f97a5cfe3098f431c4cfc4fd6353957ee715b2eccbff066ce1d 09:30:16:088, 99eddc2794077f97a5cfe3098f431c4cfc 阅读全文
posted @ 2023-08-31 10:45 bonelee 阅读(86) 评论(0) 推荐(0) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 271 下一页