上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 25 下一页
摘要: 最大回文子序列在:http://www.cnblogs.com/stAr-1/p/7444994.html 阅读全文
posted @ 2018-01-01 16:53 stAr_1 阅读(137) 评论(0) 推荐(0) 编辑
摘要: 首先弄清楚Substring和Subsequence,前者是子串,要求连续,后者是子序列,可以不连续 阅读全文
posted @ 2017-12-31 20:54 stAr_1 阅读(207) 评论(0) 推荐(0) 编辑
摘要: 感知机是支持向量机SVM和神经网络的基础 f = sign(wx+b) 这样看起来好像是LR是差不多的,LR是用的sigmoid函数,PLA是用的sign符号函数,两者都是线性分类器,主要的差别在于策略不同,即损失函数不同。 LR是用的均方误差,PLA是用的误分类点到分离超平面的总距离。 感知机模型 阅读全文
posted @ 2017-12-28 11:30 stAr_1 阅读(464) 评论(0) 推荐(0) 编辑
摘要: 线性回归用于回归,逻辑回归用于分类 逻辑回归是在线性回归的基础上进行的,所以一般面试回问逻辑回归 LR是逻辑回归,虽然两者缩写都是LR 1.线性回归 参数是θ,解线性矩阵方程不好解或者可能没有解,所以求参数化为解最小误差,由于是回归,所以误差用均方误差来衡量: 这个问题可以用最小二乘法或者梯度下降法 阅读全文
posted @ 2017-12-27 10:10 stAr_1 阅读(303) 评论(0) 推荐(0) 编辑
摘要: 对于一个模型,衡量它的性能要有一个指标 对于回归预测,常用均方误差: 对于分类预测,常用精度和错误率: 在统计学习方法中,这种度量叫做选择模型的策略,上边两种指标叫做经验风险或者经验损失,累加号后边的那部分叫做损失函数L 风险函数或者期望损失是L的期望。 除了上述指标,还有查准率和查全率,以后用到再 阅读全文
posted @ 2017-12-26 16:51 stAr_1 阅读(232) 评论(0) 推荐(0) 编辑
摘要: 首先,为什么要交叉验证:目的有两个: 1.选择合适的模型 2.选择合适的参数 1.对于一个问题,可以用模型m1,m2,不知道哪个的准确率高,可以交叉验证一下,从而选择用哪个 2.对于一个模型,参数的选择会影响结果,所以用交叉验证选择最合适的参数 然后,常用的交叉验证的方式是k折交叉验证(k-fold 阅读全文
posted @ 2017-12-26 16:08 stAr_1 阅读(4066) 评论(0) 推荐(0) 编辑
摘要: # coding=utf-8 #这是自己想的方法 def addBinary(a, b): """ :type a: str :type b: str :rtype: str 将二进制字符串转为十进制,方法是按位分开乘以2的l-i-1幂 然后转为二进制字符串 """ num1 = 0 num2 = 0 l1 = l... 阅读全文
posted @ 2017-12-21 10:35 stAr_1 阅读(175) 评论(0) 推荐(0) 编辑
摘要: /* 这个题两个地方没想到: 第一个:我们把最后的结果分成两部分,一部分是正数的,一部分是负数的,他们的和分别用p和n表示 那么 p-n = s 2p = s+sum p = (s+sum)/2 由于s和sum是固定的,所以只要找到能组成p的子序列种数就行 第二个:寻找能组成目标值的组合数(直接把做法背下来) ... 阅读全文
posted @ 2017-12-13 21:56 stAr_1 阅读(282) 评论(0) 推荐(0) 编辑
摘要: 创建一个版本库 将文件提交 查看版本库状态,待添加文件和待提交文件 git status 查看工作区文件和分支中的不同,也就是最后一次提交之后做出了什么修改 git diff 查看操作日志,当版本回退之后,当前版本之后的操作会被删除 git log 查看所有日志 git reflog 版本回退,其中 阅读全文
posted @ 2017-12-13 17:56 stAr_1 阅读(128) 评论(0) 推荐(0) 编辑
摘要: 1 /* 2 这个题的关键在于:要想达到最好的结果,每次都应该选取合适的数,当选取一个数时由于要考虑它两边的数,所以我们采取装桶法, 3 这样就知道数组中所有这个数相加的和(也就是当选取一个数时会获得的利益,和抛弃一个数时的损失),同时也相当于桶排序了,可以直接表示出i相邻的数。 4 转化为子问题,子问题就是子序列,最小的子序列就是只有一个数,最大的子序列就是所... 阅读全文
posted @ 2017-12-05 22:40 stAr_1 阅读(971) 评论(0) 推荐(1) 编辑
上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 25 下一页