上一页 1 ··· 63 64 65 66 67 68 69 70 71 ··· 271 下一页
摘要: --> Cyber Data Scientist 汇总的一些安全数据 --> Stratosphere IPS 网络IPS/IDS数据 --> VizSec DataSets 安全可视化会议推荐数据 --> Awesome Sec Data 安全数据集合 --> SecRepo 安全相关数据 --> 阅读全文
posted @ 2021-08-17 17:24 bonelee 阅读(302) 评论(0) 推荐(0) 编辑
摘要: DNS域传送漏洞 目前来看"DNS域传送漏洞"已经很少了。 DNS记录分类 常见的DNS记录有以下几类: A记录 IP地址记录,记录一个域名对应的IP地址 AAAA记录 IPv6地址记录,记录一个域名对应的IPv6地址 CNAME记录 别名记录,记录一个主机的别名 MX记录 电子邮件交换记录,记录一 阅读全文
posted @ 2021-08-17 17:09 bonelee 阅读(517) 评论(0) 推荐(0) 编辑
摘要: 在机器学习中,对于有监督学习可以将其分为两类模型:判别式模型和生成式模型。简单地说,判别式模型是针对条件分布建模,而生成式模型则针对联合分布进行建模。 1. 基本概念 假设我们有训练数据(X,Y),X是属性集合,Y是类别标记。这时来了一个新的样本,我们想要预测它的类别。 我们最终的目的是求得最大的条 阅读全文
posted @ 2021-08-08 22:39 bonelee 阅读(1399) 评论(0) 推荐(0) 编辑
摘要: 1.熵与最大熵原理 熵是随机变量不确定性的度量,不确定性越大,熵值就越大;若随机变量退化成定值,熵为0。均匀分布是“最不确定”的分布 假设离散随机变量X的概率分布为P(x),则其熵为: 联合熵和条件熵 两个随机变量的X,Y的联合分布,可以形成联合熵,用H(X,Y)表示 条件熵H(X|Y) = H(X 阅读全文
posted @ 2021-08-08 21:56 bonelee 阅读(778) 评论(0) 推荐(0) 编辑
摘要: 什么是熵(Entropy) 简单来说,熵是表示物质系统状态的一种度量,用它老表征系统的无序程度。熵越大,系统越无序,意味着系统结构和运动的不确定和无规则;反之,,熵越小,系统越有序,意味着具有确定和有规则的运动状态。熵的中文意思是热量被温度除的商。负熵是物质系统有序化,组织化,复杂化状态的一种度量。 阅读全文
posted @ 2021-08-08 21:25 bonelee 阅读(2322) 评论(0) 推荐(0) 编辑
摘要: 凸图形 凸边形就是把一个图形的一个边向两边延伸 而原图形都在延伸直线的一侧 要求是每一个边延伸都是如此 与此相对应的是凹边形 凸图形在代数中的地位很重要,主要体现在它的分析或代数性质,并且已被应用到诸如数理经济学等领域。凸形的几何性质研究比较落后,也最为复杂。本词条将就其定义、判定、性质作一些讨论。 阅读全文
posted @ 2021-08-06 12:08 bonelee 阅读(2967) 评论(0) 推荐(0) 编辑
摘要: 人工智能 kmeans和som的简单比较 cokecoffe · 2020年02月13日 · 2 次阅读 聚类分析是一种常用的分析方法,其中最为常用的 KMeans。最近也看到一个 KMeans 的改进方法,是加入 som 竞争神经网络进行训练。 竞争神经网络是一个仿照人脑神经元的启发而发明的,在这 阅读全文
posted @ 2021-08-06 11:49 bonelee 阅读(1372) 评论(1) 推荐(0) 编辑
摘要: 当K值的大小不确定时,可以使用ISODATA算法。ISODATA的全称是迭代自组织数据分析法。在K均值算法中,聚类个数K的值需要预先人为地确定,并且在整个算法过程中无法更改。而当遇到高维度、海量的数据集时,人们往往很难准确地估计出K的大小。ISODATA算法就是针对这个问题进行了改进,它的思想也很直 阅读全文
posted @ 2021-08-06 11:03 bonelee 阅读(655) 评论(0) 推荐(0) 编辑
摘要: k-means ++介绍:k-means++算法选择初始seeds的基本思想就是:初始的聚类中心之间的相互距离要尽可能的远。算法步骤:(1)从输入的数据点集合中随机选择一个点作为第一个聚类中心(2)对于数据集中的每一个点x,计算它与最近聚类中心(指已选择的聚类中心)的距离D(x)(3)选择一个新的数 阅读全文
posted @ 2021-08-06 10:59 bonelee 阅读(682) 评论(0) 推荐(0) 编辑
摘要: PCA和LDA区别:PCA选择的是投影后数据方差最大的方向。由于它是无监督的,因此PCA假设方差越大,信息量越多,用主成分来表示原始数据可以去除冗余的维度,达到降维。而LDA选择的是投影后类内方差小、类间方差大的方向。其用到了类别标签信息,为了找到数据中具有判别性的维度,使得原始数据在这些方向上投影 阅读全文
posted @ 2021-08-05 22:05 bonelee 阅读(1144) 评论(0) 推荐(0) 编辑
上一页 1 ··· 63 64 65 66 67 68 69 70 71 ··· 271 下一页