摘要: 从昨天到现在,还依然停留在容器的学习上,现在写例程代码顺手多了,看来写代码还是要多多练习才能有感觉。 经过一天的学习,有一下几点知识点让我觉得很有意义: (1)删除容器中的元素的时候,pop_front和pop_back函数的返回值并不是删除元素的值,而是void,即空数据类型,如果想要返回删除的元 阅读全文
posted @ 2016-03-25 13:52 贾慧玉 阅读(178) 评论(0) 推荐(0) 编辑
摘要: 对照着c++primier 开始学习第九章容器,把课后习题当做练习,虽然是看过书上的讲解,但是做题编程的时候,一些需要注意的地方还是难免有遗漏。 一下是几点印象比较深刻的总结: (1)前几章只学了vector容器,其实还有list和deque; (2)定义容器和定义迭代器不要搞混淆了,比如说定义一个 阅读全文
posted @ 2016-03-24 10:50 贾慧玉 阅读(257) 评论(0) 推荐(1) 编辑
摘要: 昨天和李老师讨论一会还是有所得的,虽然我发誓要早睡又泡汤了,又无原则晚睡了。 总结一下有这么几点心得认识: (1)MATLAB再带的svm工具箱得不到参数,必须在路径中添加libsvm工具箱,安装在MATLAB toolbox的文件夹下,这样就能在训练模型完成后就可以查看模型参数 (2)多查看函数的 阅读全文
posted @ 2016-03-23 13:34 贾慧玉 阅读(372) 评论(0) 推荐(0) 编辑
摘要: 支持向量机的学习说是刚刚开始,又不合理,只能说隔了很长的时间再看,终于在分类这块的层面上有了新的认识。 总的来说,支持向量机分为线性支持向量机和非线性支持向量机,线性支持向量机又可以分为硬间隔最大化线性支持向量机和軟间隔最大化线性支持向量机;非线性支持向量机需要选择合适的核函数,从而达到非线性分类。 阅读全文
posted @ 2016-03-22 09:46 贾慧玉 阅读(2043) 评论(0) 推荐(0) 编辑
摘要: 看过吴恩达的对过拟合和欠拟合的分析,这里做一下小小的总结:课程主要从验证误差和训练误差着手分析,高的variance意味着过拟合,高的bias意味着欠拟合。 (1)随着多项式的阶数的增加,交叉验证误差先减小,后增大;训练误差不断减小,当交叉验证误差和和训练误差都很大时候,交叉验证误差大约等于训练误差 阅读全文
posted @ 2016-03-17 10:48 贾慧玉 阅读(1405) 评论(0) 推荐(0) 编辑
摘要: 常见的交叉验证方法有三种,一般运用K折交叉验证的较多,即把初始采样分成K个子集,一个子集用来保留作为验证模型的数据,其他K-1个用来训练。交叉验证重复K次,每个子样本验证一次,平均K次的结果,或使用其他结合方式,得到一个单一估测,这个方法的优势在于,同时重复运用随机产生的子样本进行训练和验证,每次的 阅读全文
posted @ 2016-03-16 10:52 贾慧玉 阅读(3265) 评论(0) 推荐(0) 编辑
摘要: 在通过CETV的网上笔试之后,我收到了面试通知,我纠结片刻,就买了第二天去广州的高铁,虽然感觉自己硬件方面的知识已经快忘完了,但还是想去一下,起码是一种经历。对一个路痴和知识储备不足的我来讲,这一切都具有挑战性。 公司的车大约是下午2:30在黄村地铁口接应,由于公司比较偏远,坐车大约40分钟才到公司 阅读全文
posted @ 2016-03-16 09:58 贾慧玉 阅读(885) 评论(0) 推荐(1) 编辑