上一页 1 ··· 16 17 18 19 20 21 22 23 24 ··· 56 下一页
摘要: 密度聚类density-based clustering假设聚类结构能够通过样本分布的紧密程度确定。 密度聚类算法从样本的密度的角度来考察样本之间的可连接性,并基于可连接样本的不断扩张聚类簇,从而获得最终的聚类结果。 一、DBSCAN算法 1.介绍 DBSCAN是一种著名的密度聚类算法,它基于一组邻 阅读全文
posted @ 2019-11-23 14:18 nxf_rabbit75 阅读(579) 评论(0) 推荐(0) 编辑
摘要: 123 阅读全文
posted @ 2019-11-23 11:03 nxf_rabbit75 阅读(150) 评论(0) 推荐(0) 编辑
摘要: 123 阅读全文
posted @ 2019-11-23 11:01 nxf_rabbit75 阅读(132) 评论(0) 推荐(0) 编辑
摘要: 原型聚类prototype-based clustering假设聚类结构能通过一组原型刻画。 常见的原型聚类有: k均值算法k-means 学习向量量化算法Learning Vector Quantization:LVQ 高斯混合聚类Mixture-of-Gaussian 一、k-means算法 1 阅读全文
posted @ 2019-11-23 10:59 nxf_rabbit75 阅读(647) 评论(0) 推荐(0) 编辑
摘要: 一、性能度量 聚类的性能度量也称作聚类的有效性指标。 聚类的性能度量分两类: 聚类结果与某个参考模型进行比较,称作外部指标; 直接考察聚类结果而不利用任何参考模型,称作内部指标。 1. 外部指标 对于数据集$D={x_1,x_2,...,x_N}$,假定通过聚类给出的簇划分为$C={C_1,C_2, 阅读全文
posted @ 2019-11-22 17:04 nxf_rabbit75 阅读(1381) 评论(0) 推荐(0) 编辑
摘要: 1.工作原理: 存在一个样本数据集合,也称为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类对应的关系。输入没有标签的数据后,将新数据中的每个特征与样本集中数据对应的特征进行比较,提取出样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前k个 阅读全文
posted @ 2019-11-22 15:57 nxf_rabbit75 阅读(315) 评论(0) 推荐(0) 编辑
摘要: 1.安装jupyter notebook pip install jupyter 2.生成配置文件 jupyter notebook --generate-config 3.设置登陆密码并生成秘钥 sha1秘钥需要复制,下一步要用 4.修改配置文件 进入配置文件所在的文件夹:cd ~/.jupyte 阅读全文
posted @ 2019-11-21 15:58 nxf_rabbit75 阅读(3765) 评论(0) 推荐(0) 编辑
摘要: 一、GPT(Generative Pre-Training) GPT-2的模型非常巨大,它其实是Transformer的Decoder。GPT-2是Transformer的Decoder部分,输入一个句子中的上一个词,我们希望模型可以得到句子中的下一个词。 由于GPT-2的模型非常巨大,它在很多任务 阅读全文
posted @ 2019-11-17 20:31 nxf_rabbit75 阅读(503) 评论(0) 推荐(0) 编辑
摘要: word2vec作为神经概率语言模型的输入,其本身其实是神经概率模型的副产品,是为了通过神经网络学习某个语言模型而产生的中间结果。具体来说,“某个语言模型”指的是“CBOW”和“Skip-gram”。具体学习过程会用到两个降低复杂度的近似方法——Hierarchical Softmax或Negati 阅读全文
posted @ 2019-11-17 11:50 nxf_rabbit75 阅读(463) 评论(0) 推荐(0) 编辑
摘要: 1.Ordered 和 Ordering Scala提供两个特质(trait)Ordered与Ordering用于比较。其中,Ordered混入(mix)Java的Comparable接口,而Ordering则混入Comparator接口。众所周知,在Java中 实现Comparable接口的类,其 阅读全文
posted @ 2019-11-10 09:56 nxf_rabbit75 阅读(489) 评论(0) 推荐(0) 编辑
上一页 1 ··· 16 17 18 19 20 21 22 23 24 ··· 56 下一页