摘要: 一队士兵被敌人包围,围成一个圈使用Josephus知道最后一个士兵去报信Josephus#include #include using namespace std;templatevoid joseph(list& a,list&b,int jumNum){ list::iterator iter=a.begin(); list::iterator temp; while(!a.empty()){... 阅读全文
posted @ 2013-11-12 21:32 小石头@shu 阅读(171) 评论(0) 推荐(0) 编辑
摘要: 神经网络的 三种正则化方法: 1,和线性回归正则化类似,,因为是多层结构,所以相应地正则化也为多层,假设一个两层的神经网络的正则化为: 2,第二种正则化的方法:Early Stopping,In machine learning, early stopping is a form of regularization used when a machine learningmodel (such... 阅读全文
posted @ 2013-11-05 16:49 小石头@shu 阅读(1442) 评论(0) 推荐(0) 编辑
摘要: Linux的僵尸进程及其解决方法摘要: Linux的僵尸进程及其解决方法 1. 产生原因: 在UNIX 系统中,一个进程结束了,但是他的父进程没有等待(调用wait / waitpid)他,那么他将变成一个僵尸进程。通过ps命令查看其带有defunct的标志。僵尸进程是 ... Linux的僵尸进程及其解决方法 1. 产生原因: 在UNIX 系统中,一个进程结束了,但是他的父进程没有等待(调用wait / waitpid)他,那么他将变成一个僵尸进程。通过ps命令查看其带有defunct的标志。僵尸进程是一个早已死亡的进程,但在进程表(processs table)中仍占了一个位... 阅读全文
posted @ 2013-10-12 11:08 小石头@shu 阅读(244) 评论(0) 推荐(0) 编辑
摘要: 基于邻域的算法主要分为两类:基于用户的协同过滤算法和基于物品的协同过滤算法基于用户的协同过滤算法基础算法:(1) 找到和目标用户兴趣相似的用户集合(2) 找到这个集合中的用户喜欢的,且目标用户没有听说过的物品推荐给目标用户Jaccard公式计算u和v的兴趣相似度:UserCF推荐算法建立物品到用户的倒查表,对于每个物品都保存对该物品产生过行为的用户列表用户u对物品i的感兴趣程度:算法的改进(User-IIF)以图书为例,如果两个用户都曾经买过《新华字典》,这不能说明他们兴趣相似,但是如果他们都买过《数据挖掘导论》。那可以认为他们兴趣基本相似。所以必须考虑到热门物品对用户相似度的影响基于物品的协 阅读全文
posted @ 2013-09-24 10:03 小石头@shu 阅读(509) 评论(0) 推荐(0) 编辑
摘要: ridgeregression可以用来处理下面两类问题:一是数据点少于变量个数;二是变量间存在共线性。当变量间存在共线性的时候,最小二乘回归得到的系数不稳定,方差很大。这是因为系数矩阵X与它的转置矩阵相乘得到的矩阵不能求得其逆矩阵,而ridgeregression通过引入参数lambda,使得该问题得到解决。在R语言中,MASS包中的函数lm.ridge()可以很方便的完成。它的输入矩阵X始终为nxp维,不管是否包含常数项。下面分别介绍包含和不包含常数项时的输出:当包含常数项时,该函数对y进行中心化,以y的均值作为因子;对x进行中心化和归一化,以x中各个变量的均值和标准差作为因子。这样对x和y 阅读全文
posted @ 2013-09-18 15:07 小石头@shu 阅读(1189) 评论(0) 推荐(0) 编辑
摘要: 11 SMO优化算法(Sequential minimal optimization)转自http://www.cnblogs.com/jerrylead/archive/2011/03/18/1988419.htmlSMO算法由Microsoft Research的John C. Platt在1998年提出,并成为最快的二次规划优化算法,特别针对线性SVM和数据稀疏时性能更优。关于SMO最好的资料就是他本人写的《Sequential Minimal Optimization A Fast Algorithm for Training Support Vector Machines》了。我拜读 阅读全文
posted @ 2013-09-07 22:24 小石头@shu 阅读(631) 评论(0) 推荐(0) 编辑
摘要: 今天做了下斯坦福的ML的ex1,包括两大部分:1,单变量线性回归2,多变量线性回归其中多变量线性回归部分相对于单变量线性回归,主要就多了关于feature的归一化处理,因为各种特征表示不同,可能数值想相差很大,因而需要归一化处理这里(ex1.pdf)的归一化处理为数值本身与该feature项的平均值之差除以该feature的标准差代码如下:function [X_norm, mu, sigma] = featureNormalize(X) X_norm = X; mu = zeros(1, size(X, 2)); sigma = zeros(1, size(X, 2)); % =... 阅读全文
posted @ 2013-08-08 19:21 小石头@shu 阅读(492) 评论(0) 推荐(0) 编辑
摘要: 一、/etc/passwd /etc/passwd 文件是一个纯文本文件,每行采用了相同的格式: name:password:uid:gid:comment:home:shell name 用户登录名 password 用户口令。此域中的口令是加密的,常用x表示。当用户登录系统时,系统对输入的口令采取相同的算法,与此域中的内容进行比较。如果此域为空,表明该用户登录时不需要口令。 uid 指定用户的 UID。用户登录进系统后,系统通过该值,而不是用户名来识别用户。 gid GID。如果系统要对相同的一群人赋予相同的权利,则使用该值。 comment 用来保存用... 阅读全文
posted @ 2013-08-06 15:17 小石头@shu 阅读(260) 评论(0) 推荐(0) 编辑
摘要: 源代码下载(内有注释)[python] view plaincopy#-* coding:UTF-8 -*- """ This tutorial introduces the multilayer perceptron using Theano. A multilayer perceptron is a logistic regressor where instead of feeding the input to the logistic regression you insert a intermediate layer, called the hidden 阅读全文
posted @ 2013-08-05 08:55 小石头@shu 阅读(923) 评论(0) 推荐(0) 编辑
摘要: int getopt_long(int argc, char * const argv[],const char *optstring,const struct option *longopts, int *longindex)字符串optstring可以下列元素:1.单个字符,表示选项,2.单个字符后接一个冒号:表示该选项后必须跟一个参数。参数紧跟在选项后或者以空格隔开。该参数的指针赋给optarg。3 单个字符后跟两个冒号,表示该选项后可以有参数也可以没有参数。如果有参数,参数必须紧跟在选项后不能以空格隔开。该参数的指针赋给optarg。(这个特性是GNU的扩张)。optstring是一个 阅读全文
posted @ 2013-08-04 21:24 小石头@shu 阅读(178) 评论(0) 推荐(0) 编辑