12 2010 档案

摘要:作者slostice http://blog.csdn.net/Solstice/archive/2008/10/13/3066268.aspx 转者注:) 我也是不喜欢继承和虚函数的,耦合度太大,我喜欢STL,boost,CGAL风格的C++。我经常使用的是template, 仿函数,用编译期的多态替代虚函数(见effective c++ 条款41 了解隐式接口和编译期多态)。 例如Example<WriteFunc1,Writer2> example;example.process();这真是C++的伟大灵活之处, m_func可以是任何一个函数对象只要其内部定义了opera 阅读全文
posted @ 2010-12-30 10:22 阁子 阅读(2214) 评论(0) 推荐(1) 编辑
摘要:原文http://www.cppblog.com/walkspeed/archive/2007/07/20/28448.html当我们使用函数时习惯于C函数的格式,即如下形式resulttype funname( arglist );返回值类型 函数名( 参数列表 );在Boost.Function中,我们可以方便的定义定义函数对象。不过在定义用来表示类成员函数的函数对象时第一个参数是类指针。而且在调用时,要传入一个类实例的指针。这样用起来并不是很方便,因为调用者要知道类实例。这实际上没有实现解耦。而解耦是我们使用回调或委托设计的一个目标。为了解决这个问题,我们要使用Boost.Bind库Bo 阅读全文
posted @ 2010-12-30 09:49 阁子 阅读(603) 评论(0) 推荐(0) 编辑
摘要:最近用boost::math库,发现会和我以前的程序冲突。比如我的程序如果用到 #include<tr1/unordered_map> 等等std::tr1名字域下的东西。。。 google了下,原因是boost::tr1设计初衷是为了在你的系统没有std::tr1标准库实现的情况下让你仍然可以在程序中使用std::tr1::unordered_map, std::tr1::tuple等东东,当然了这是一个work around,也就是你其实还是用的boost::tuple等等 只是你的代码写的时候可以写std::tr1::tuple。 比如boost的math库的一个分布函数的 阅读全文
posted @ 2010-12-29 17:56 阁子 阅读(4012) 评论(0) 推荐(0) 编辑
摘要:如果你经常使用STL算法,那么你会注意到函数对象的传递都是传值的形式如下面的sort, for_each,_Compare __comp 而不是 _Compare& __comp传递引用。这里你是否会疑惑呢,为什么要用传值的形式而不用传递引用呢,毕竟函数对象区别于函数指针的一大优点是自身可以带有状态变量。如下面这个函数对象它是带有一个状态变量a的,其实可以带有更复杂更占内存的变量更多的变量,那么传值的方式肯定有很大的拷贝代价了。现在我有一个应用,读取数据库中的词并统计热门词,现在问题来了,见下面那么言归正传,为什么STL要是使用传值的方式呢??用于传递函数对象呢??? 我觉得是为了下面 阅读全文
posted @ 2010-12-28 09:54 阁子 阅读(3729) 评论(0) 推荐(0) 编辑
摘要:以前写了个关于MMSEG实现的,那个写的很烂,本身我也没有实现完全。最近在工作中对原有系统的分词进行了代码重构和算法优化。并且针对电子商务网站搜索的特征,给出对于离线没有识别出歧义的片段进行全切分,而且与IK的全切分不同,同时我们还要保证路径的完整,即我们不需要找到所有的路径,但是我们要确定所有的全切分可能路径出现的词都会被切出,而IK的切法只是给出所有有意义的词,并不考虑完整路径问题,比如 “中华人民” 按照IK的切法,“中华” “华人” “人民”,而我们希望的结果是“中华,中,华人, 阅读全文
posted @ 2010-12-18 18:04 阁子 阅读(1041) 评论(0) 推荐(0) 编辑
摘要:简介: 主要参考<<introduction to statistical pattern recognation>>第六章,做简单笔记。 1. 参数化与非参数化 参数化是指我们对于概率预先做出了分布形式假设,我们要做的只是估算参数值,比如我们假定是高斯分布,二项式分布等等。 非参数化直接从观察数据估计概率密度,不依赖任何对分布形式的假设。 2. 如何非参数化估计? 可以采用Parzen密度估计方法。 可以采用KNN方法。 区别是Parzen方法是固定v,不固定k,而KNN方法是固定k,不固定v。 3. 结论 贝叶斯分类器是最小化分类误差的理论上的最优分类器 参数化 阅读全文
posted @ 2010-12-13 17:05 阁子 阅读(1853) 评论(0) 推荐(0) 编辑
摘要:1. 简介: 主要是Andrew W.Moore 的课件Predicting real-valued outputs: an introduction to regression学习笔记(逐步完成)。 2. 单一参数线性回归 single parameter linear regression 前面关于PRML第一章学习笔记中已经贴了该部分。注意最后的最优求解很简单,按照偏导数=0。 对应最小... 阅读全文
posted @ 2010-12-12 11:23 阁子 阅读(1203) 评论(0) 推荐(0) 编辑
摘要:written by goldenlock 简介: 本文主要对PRML一书的第一章总结,结合moore关于回归的课件Predicting real-valued outputs: an introduction to regression。 什么是回归(regression)? 1. 单一参数线性回归 如上图考虑用一条过原点的直线去拟合采样点,y=wx,那么未知参数w取什么值可以使得拟合最好的,即整体拟合误差最小,这是一个最小二乘法拟合问题。 目标是使得(Xi-Yi)^2的总和最小。 2. 从概率的角度考虑上面的问题 就是说我们假定模型是y=wx但是具体的(Xi,Yi)对应生成的时候按照高斯 阅读全文
posted @ 2010-12-11 22:11 阁子 阅读(5520) 评论(0) 推荐(1) 编辑

点击右上角即可分享
微信分享提示