随笔分类 -  机器学习算法

摘要:深度学习最大的坑明明是部署 最近闲得无聊,学弟学妹有一个比赛我就带着做了(说是带着做,其实只有我在写代码,学弟学妹不会·····),基本上是一个在边缘设备上做视频检测的项目。所谓边缘设备其实也是一台x86主机,只不过没有GPU,也是在这个过程中对于深度学习模型的部署有了许多练习,发现这个坑还挺深的。 阅读全文
posted @ 2020-09-23 11:13 别再闹了 阅读(4730) 评论(0) 推荐(2) 编辑
摘要:from tensorflow.python import pywrap_tensorflow import tensorflow as tf from tensorflow.python.framework import graph_util ''' 将节点名字打印出来 ''' def getAl 阅读全文
posted @ 2020-08-19 09:51 别再闹了 阅读(1871) 评论(2) 推荐(0) 编辑
摘要:我自己用C++写了个GMM(Gaussian mixture model)模型 Written for an assignment 之前粗粗了解了GMM的原理,但是没有细看,现在有个Assignment让用C++手写一个GMM模型,有点方,花了一些时间写出来了。 先吐槽下,这两天算是把网上关于GMM 阅读全文
posted @ 2019-12-14 21:19 别再闹了 阅读(646) 评论(0) 推荐(0) 编辑
摘要:All the matrials come from Machine Learning class in Polyu,HK and I reorganize them and add reference materials.I promise that I only use them to stud 阅读全文
posted @ 2019-10-29 00:26 别再闹了 阅读(995) 评论(0) 推荐(0) 编辑
摘要:The complete .ipynb file can be download through my share in onedrive:https://1drv.ms/u/s!Al86h1dThXMNxDtq_wkOF1PNARrl?e=WvRNaI All the materials come 阅读全文
posted @ 2019-10-28 02:00 别再闹了 阅读(1695) 评论(0) 推荐(1) 编辑
摘要:机器学习 线性回归 本文代码均来自于《机器学习实战》 分类算法先说到这里,接下来说一个回归算法 线性回归 线性回归比较简单,就不怎么说了,要是模型记不得了就百度一下吧,这里列一下公式就直接上代码了 线性回归的一个问题就是可能会出现欠拟合现象,因为它求的是具有最小均方误差的无偏估计,所以如果模型欠拟合 阅读全文
posted @ 2019-10-18 23:47 别再闹了 阅读(3047) 评论(0) 推荐(0) 编辑
摘要:机器学习 SVM 手写识别问题 这里我们解决的还是之前用KNN曾经解决过的手写识别问题(https://www.cnblogs.com/jiading/p/11622019.html),但相比于KNN,SVM好的地方在于一旦我们的模型训练完成,我们就可以得到一个确定的决策超平面,当然这个超平面的w是 阅读全文
posted @ 2019-10-18 14:59 别再闹了 阅读(680) 评论(0) 推荐(0) 编辑
摘要:机器学习 SVM 本文源代码均来自于《机器学习实战》 完整SVM代码: 附上简化的SVM模型代码,可以辅助理解 阅读全文
posted @ 2019-10-18 14:43 别再闹了 阅读(328) 评论(0) 推荐(0) 编辑
摘要:Logistic回归应用 预测马的死亡率 本文所有代码均来自《机器学习实战》,数据也是 本例中的数据有以下几个特征: 1. 部分指标比较主观、难以很好的定量测量,例如马的疼痛级别 2. 数据集中有30%的数据是缺失的,例如: 如何处理数据缺失情况 数据是很宝贵的,对于有缺失的数据我们不能直接丢弃,而 阅读全文
posted @ 2019-10-12 11:37 别再闹了 阅读(891) 评论(0) 推荐(0) 编辑
摘要:机器学习 Logistic回归 本文所有代码来源于《机器学习实战》 梯度下降法 随机梯度下降 对于⼤样本,梯度下降是很耗费时间的,因为它每⼀次都需要对所有样本进⾏求和。对于这种⽅法,我们也叫它批量梯度下降⽅法(Batch gradient descent) 。 改进之后,我们只需要每次看⼀个样本就可 阅读全文
posted @ 2019-10-12 11:00 别再闹了 阅读(472) 评论(0) 推荐(0) 编辑
摘要:朴素贝叶斯应用 机器学习 新浪新闻分类器 本文代码及数据均来自于https://cuijiahua.com/blog/2017/11/ml_5_bayes_2.html 这个例子比较有实践意义,不仅使用了jieba、sklearn,并且其中用到的思想也是很实用的。 jieba "结巴"中文分词:做最 阅读全文
posted @ 2019-10-08 18:06 别再闹了 阅读(355) 评论(0) 推荐(0) 编辑
摘要:文章中代码均来自于《机器学习实战》 这个程序没有邮件的文件的话是不能运行的,要是想试试可以去网上搞搞文件 阅读全文
posted @ 2019-10-07 22:41 别再闹了 阅读(717) 评论(0) 推荐(0) 编辑
摘要:机器学习—朴素贝叶斯 本文代码均来自《机器学习实战》 朴素贝叶斯的两个基本假设: 1. 独立:一个特征出现的可能性和与它和其他特征相邻没有关系 2. 每个特征同等重要 这段代码是以文本分类为例介绍朴素贝叶斯算法的 要从文本中获取特征,需要先拆分文本。这里的特征是来自文本的词条(token),一个词条 阅读全文
posted @ 2019-10-05 12:30 别再闹了 阅读(2864) 评论(0) 推荐(0) 编辑
摘要:``` Python ''' Created on Oct 14, 2010 @author: Peter Harrington ''' import matplotlib.pyplot as plt decisionNode = dict(boxstyle="sawtooth", fc="0.8") leafNode = dict(boxstyle="round4", fc="0.8") a... 阅读全文
posted @ 2019-10-05 10:35 别再闹了 阅读(262) 评论(0) 推荐(0) 编辑
摘要:本文代码均来自《机器学习实战》 阅读全文
posted @ 2019-10-05 10:34 别再闹了 阅读(293) 评论(0) 推荐(0) 编辑
摘要:本文代码均来自《机器学习实战》 这里讲了两个例子,datingclass 和 figureclass,用到的都是KNN,要调用这两个例子的话就在代码末尾加 和`handwritingClassTest()` 至于第二个例子中用到的图片,是指那种字符点阵的图片,但是对于同样的原理,灰度图片应该也是可以 阅读全文
posted @ 2019-10-04 13:55 别再闹了 阅读(432) 评论(0) 推荐(0) 编辑
摘要:``` Python ''' Created on Sep 16, 2010 kNN: k Nearest Neighbors Input: inX: vector to compare to existing dataset (1xN) dataSet: size m data set of known vectors (NxM) labels: data set labels (1xM vec 阅读全文
posted @ 2019-10-04 13:34 别再闹了 阅读(235) 评论(0) 推荐(0) 编辑
摘要:``` Python def autoNorm(dataSet):#归一化,使用公式为 newValue=(oldValue-min)/(max-min) minVals = dataSet.min(0) maxVals = dataSet.max(0) ranges = maxVals - minVals normDataSet = zeros(shape(dataSet)) m = dataS 阅读全文
posted @ 2019-10-04 12:45 别再闹了 阅读(288) 评论(0) 推荐(0) 编辑
摘要:代码来源:https://www.cnblogs.com/charlotte77/p/5629865.html 我对源代码做了大量的注解,希望有助于大家理解,请搭配原文食用 阅读全文
posted @ 2019-10-04 00:54 别再闹了 阅读(1060) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示